Nous utilisons des cookies pour vous garantir la meilleure expérience sur notre site. Si vous continuez à utiliser ce dernier, nous considèrerons que vous acceptez l'utilisation des cookies. J'ai compris ! ou En savoir plus !.
Un Planet est un site Web dynamique qui agrège le plus souvent sur une seule page, le contenu de notes, d'articles ou de billets publiés sur des blogs ou sites Web afin d'accentuer leur visibilité et de faire ressortir des contenus pertinents aux multiples formats (texte, audio, vidéo, Podcast). C'est un agrégateur de flux RSS. Il s'apparente à un portail web.
Vous pouvez lire le billet sur le blog La Minute pour plus d'informations sur les RSS !
  • Canaux
  • Categories
  • Tags
  • Canaux

    3898 éléments (76 non lus) dans 55 canaux

    Dans la presse Dans la presse

    Toile géomatique francophone (17 non lus)

     
    • sur Le nouveau mode Globe de Giro3D

      Publié: 17 September 2024, 7:00am CEST par Sébastien Guimmara

      Dans cet article, nous approfondissons la nouveauté majeure de Giro3D : le mode globe.

      Note: Cet article concerne une fonctionnalité à venir, et certains détails peuvent être amenés à changer d’ici la version finale.

      Les systèmes de coordonnées projetés

      Jusqu’ici, il n’était possible d’afficher dans Giro3D que des cartes (Map) basées sur des systèmes de coordonnées projetés, tels que Web Mercator, utilisé sur la majorité des services de webmapping tel que Google Maps ou Lambert 93 bien connu des géomaticiens français.

      Dans une scène 3D

      Dans une scène Giro3D, tout est 3D. Cela signifie qu’un repère projeté à 2 axes sera tout de même représenté dans un espace à 3 dimensions (le troisième axe restant « virtuel »).

      Une carte OpenStreetMap affichée dans Giro3D via l’entité Map. Même si la carte elle-même est en 2D, elle peut être affichée sous différents angles par la scène 3D.

      Les systèmes de coordonnées non-projetés

      Le mode Globe de Giro3D se base sur un système de coordonnée géocentrique, dans lequel le repère a pour origine le « centre » de la Terre (ou de tout autre objet sphérique). Cet objet sphérique est modélisé par un ellipsoïde.

      By Chuckage – Own work, CC BY-SA 4.0, [https:]

      Dans ce type de repère, les coordonnées géodésiques (exprimées en angles, comme la latitude et la longitude, et en mètres pour l’élévation) doivent être converties en coordonnées cartésiennes (exprimées en unités linéaires, comme les mètres), pour pouvoir être affichées dans le navigateur. Cette conversion géodésique / cartésien est effectuée par l’objet Ellipsoid, qui est à la base de la représentation des globes.

      Le mode Globe

      Giro3D permet d’afficher un globe d’après un ellipsoïde arbitraire ou (ou bien d’utiliser l’ellipsoïde par défaut WGS84). Pour ce faire, il faut instancier une entité de type Globe plutôt que Map:

      const defaultGlobe = new Globe();
      Un globe avec les paramètres par défaut.
      const moon = new Globe({
        ellipsoid: new Ellipsoid({
          semiMajorAxis: 1_738_100,
          semiMinorAxis: 1_736_000,
        }),
      });
      Création d'un globe aux paramètres de la Lune

      Les fonctionnalités du Globe sont quasiment identiques à celles d’une Map. On peut y afficher une couche d’élévation (ElevationLayer), un nombre illimité de couches de couleur (ColorLayer), et bénéficier de toutes les autres fonctionnalités comme les graticules, les courbes de niveau, l’éclairage dynamique…

      La principale différence se situe sur le fait que le Globe utilise simultanément deux systèmes de coordonnées: géodésique et cartésien, selon la fonctionnalité considérée.

      Par exemple, le graticule utilisera le système géodésique pour exprimer le pas de la grille (en degrés). Les emprises des différentes couches seront également exprimées en coordonnées géodésiques (largeur et longueur en degrés).

      Les repères relatifs

      Nous avons dit que par défaut, le point d’origine de la scène 3D est le même que le point d’origine du repère géocentrique. Cependant, il est possible de déplacer le globe dans la scène, afin de représenter des systèmes orbitaux ou un système solaire complet:

      moon.object3d.translateX(384_000_000);
      Déplacement du Globe de la lune à 384 000 km de la terre Anatomie d’un globe

      De façon très similaire à l’entité Map, l’entité Globe se découpe en plusieurs composants optionnels.

      Le globe nu se compose d’une surface ellipsoïdale, et d’une couleur de fond.

      Le globe seul, accompagné d’un graticule permettant de visualiser la courbure terrestre.

      Nous pouvons y ajouter une couche d’élévation (ElevationLayer) colorisée par une rampe de couleurs (ColorMap):

      Une couche d’élévation colorisée par une ColorMap.

      Nous pouvons également y ajouter des couches de couleur (ColorLayer), en nombre illimité. Ajoutons la couche Mapbox satellite:

      La couche Mapbox satellite

      Ajoutons également une couche de nuages (issue de la NASA):

      Une couche de nuages

      Puis un éclairage dynamique, grâce à une lumière directionnelle three.js (DirectionalLight):

      L’éclairage dynamique

      Il est possible de modifier l’éclairage pour le faire correspondre à une date précise.

      Enfin, ajoutons une atmosphère grâce à l’entité Atmosphere:

      Le globe final

      Conclusion

      Le nouveau mode Globe permettra de créer des scènes gigantesques à l’échelle d’une planète, ou même d’un système solaire entier. Doté de la même API que l’entité Map, il est simple à utiliser.

      Avantages de l’entité Globe
      • Adapté aux très grandes scènes, voire à la planète entière
      • Élimine les distorsions causées par les projections cartographiques
      • Permet de visualiser les cycles jour/nuit à l’échelle de la planète
      • Permet de visualiser des objets en orbite, comme la Lune ou des satellites artificiels
      • Permet de visualiser l’horizon
      Avantages de l’entité Map
      • Adapté aux scènes locales (quelques kilomètres carrés), ou bien aux cartes 2D (OpenStreetMap, etc)
      • Plus simple à manipuler pour les utilisateurs habitués aux outils cartographiques 2D
      • Les axes de la scène sont identiques aux axes du système de coordonnées, ce qui simplifie les mesures
      • Moins gourmand en ressources matérielles, car moins de transformations à effectuer
      • Éclairage plus simple à réaliser
      Galerie

    • sur Giro3D – les dernières nouveautés

      Publié: 17 September 2024, 7:00am CEST par Sébastien Guimmara
      Introduction

      Nous avons le plaisir de vous annoncer une série de mises à jour significatives pour Giro3D, la bibliothèque 3D Web de visualisation géospatiale. Ces nouvelles fonctionnalités viennent renforcer les capacités de notre bibliothèque et sont conçues pour améliorer à la fois la précision et l’efficacité de vos projets de visualisation 3D Web.

      Mode Globe Prévu pour Giro3D 0.40

      Les prochaines versions de Giro3D verront l’arrivée du tant attendu mode globe, permettant d’afficher des globes variés (planètes, lunes, étoiles). Le mode Globe supportera les mêmes fonctionnalités que les cartes planes (Map): nombre illimité de couches de couleurs, terrain, et bien d’autres.

      Modes de fusion des couches images Depuis Giro3D 0.39

      Inspiré par QGIS, il est désormais possible de spécifier un mode de fusion pour les couches d’une Map. Les modes de fusion disponibles sont: aucun, normal (la valeur par défaut), additif et multiplicatif. Ces modes de fusion permettent d’obtenir des effets visuels spécifiques, ou contourner l’absence de canal de transparence dans la couche image. Il est par exemple possible d’afficher une couche nuageuse grâce au mode additif, et ce même si la couche est entièrement opaque.

      Outils de dessin et de mesures Depuis Giro3D 0.38

      Tracer des lignes, points, polygones, secteurs angulaires… Le nouveau système de dessin de Giro3D permet de mesurer précisément des distances, angles, pentes, hauteurs et surfaces. Les objets créés peuvent être aisément exportés en GeoJSON.

      API de styles des features 3D Depuis Giro3D 0.38

      Giro3D permet d’afficher des features au standard Simple Feature (fichiers GeoJSON, flux WFS…), drapées ou non sur une Map. Jusqu’ici, les APIs de styles étaient très différentes entre la version drapée et non drapée. Les différences ont été considérablement réduites afin de fournir aux utilisateurs une API similaire (à quelques exceptions près).

      Gestion des pertes de contexte WebGL Depuis Giro3D 0.38

      Nous vous avions parlé précédemment dans la 1′ tech de WebGL, la bibliothèque graphique permettant l’affichage de scènes 3D dans le navigateur. Cette bibliothèque est utilisée intensivement par Giro3D, et il peut arriver que la connexion au contexte graphique soit perdue, empêchant la scène de s’afficher correctement.

      Giro3D gère désormais intelligemment la perte et la restauration du contexte graphique afin de restaurer l’affichage de la scène tel qu’elle se présentait avant l’interruption.

      Support des classifications de nuages de points Depuis Giro3D 0.37

      Les classifications de nuages de points apportent une nouvelle dimension à l’analyse de données géospatiales. En permettant une catégorisation précise des points, cette fonctionnalité simplifie la gestion des informations complexes et contribue à une meilleure interprétation des données géographiques.

      Giro3D supporte désormais l’affichage des points classifiés et permet de modifier la couleur et la visibilité de chaque classification.

      Requêtes d’élévation Depuis Giro3D 0.38

      Giro3D supporte désormais les requêtes d’élévation sur les données de terrain. Il est ainsi possible de calculer très rapidement un profil d’élévation (y compris sur un grand nombre de points), ainsi que de positionner précisément des objets à la surface d’un terrain (véhicules, symboles…).

      Eclairage dynamique et ombres portées Prévu pour Giro3D 0.40

      Il sera également possible d’éclairer les terrains avec les lumières dynamiques du moteur three.js, afin, par exemple, de simuler l’ensoleillement et les ombres portées des montagnes.

      Images panoramiques 360° Prévu pour Giro3D 0.40

      Giro3D permettra d’afficher des images panoramiques massives (plusieurs centaines de megapixels) de façon optimisée.

    • sur Piloter son entreprise grâce à l’open source : c’est possible ?

      Publié: 17 September 2024, 6:38am CEST par Caroline Chanlon

      Chez Oslandia, l’open source fait partie intégrante de la culture d’entreprise. « OS » dans « Oslandia » c’est « Open Source » ? Le choix s’est donc naturellement tourné vers des outils de pilotage libres.

      GitLab est l’outil utilisé pour le suivi de la production, des tâches d’administration, du plan de formation, ainsi que l’organisation de la communication ou du recrutement.

      Côté ERP, c’est l’ERP open source Dolibarr qui est utilisé pour gérer la comptabilité depuis le 1er janvier 2023 et Superset pour la réalisation de Dashboards avec des graphiques pour le suivi des indicateurs de pilotage de la société.

      L’utilisation de ces outils apporte des possibilités de personnalisation avancés car on peut développer des modules sur mesure, mais permet également d’appliquer le principe de transparence auprès de l’ensemble des collaborateurs qui peuvent proposer des idées, participer aux décisions et à la vie de l’entreprise.

      Adapter les outils au fonctionnement de l’entreprise et pas l’inverse, c’est une force que permet l’opensource !

      Vincent, co-fondateur et CEO d’Oslandia :

      « Quand on accueille de nouveaux collaborateurs, ils sont parfois décontenancés par l’utilisation massive des outils de suivi sur GitLab, mais après un temps d’adaptation, tous reconnaissent l’efficience et le confort d’utilisation, avec un travail asynchrone, fluide, l’historisation et la capitalisation de l’information, et une transparence quasi complète ! »

      Catherine, directrice administrative, financière et RH d’Oslandia

      « J’ai longtemps travaillé sur des outils propriétaires. En arrivant chez Oslandia, j’ai par la force des choses dû composer et m’adapter avec ces outils dans mon travail. Certains outils comme Gitlab m’ont complètement séduite tant sur la praticité de l’utilisation que dans l’aide quotidienne pour l’organisation administrative. Une vraie découverte !
      Côté gestion financière et RH, l’utilisation de Dolibarr combinée avec Superset a été un peu plus complexe dans la mise en place, mais c’est souvent le cas pour tout déploiement d’un ERP… Superset est assez technique et moins intuitif pour une personne « non dév ».
      Mais passé cette phase d’adaptation et de paramétrage, ces outils OpenSource ont l’avantage de permettre de suivre le pilotage financier efficacement et sur des budgets maîtrisés, et d’avoir une grande liberté dans l’utilisation et la transparence des données. »

    • sur [Story] Oslandia x QWC : épisode 3 / 8

      Publié: 13 September 2024, 6:06am CEST par Caroline Chanlon

      Nous avons vu précédemment des améliorations réalisées par Oslandia sur l’interface web de QWC, côté utilisateur.

      Concernant l’interface d’administration, nous nous sommes concentrés sur le plugin themes qui permet facilement d’ajouter des projets QGIS dans l’application. Certains problèmes ont été corrigés, et de petites fonctionnalités ont été ajoutées, notamment la possibilité d’ajouter des fonds de plan de type XYZ, et la prise en compte de certaines options pour les fonds de plan WMS/WMTS.

      Il y a également possibilité de modifier directement ces fonds de plan dans l’interface d’administration plutôt que de supprimer et recréer un fond en cas d’erreur.

      La création de ressources et de permissions pour administrer un projet a été rendue moins fastidieuse : on peut désormais importer toutes les ressources d’un projet en renseignant le type de ressource que l’on veut créer, ainsi que le rôle qui aura la permission sur ces ressources. La fonctionnalité permet par exemple d’importer directement les 15 couches d’un projet en tant que ressource de type data au rôle sig_edit pour permettre l’édition de données de ce projet à certains utilisateurs.

      La suppression de ressources a également été facilitée en ajoutant des cases à cocher permettant de supprimer plusieurs ressources à la fois.

      Pour continuer sur l’interface d’administration, un gros travail a été réalisé par Gwendoline pour permettre la traduction de toutes les pages d’administration. Il est désormais possible d’afficher cette interface en français (ou dans une autre langue !) comme cela est possible également dans l’application.

      Ces améliorations ne sont pas visibles directement pour l’utilisateur final, mais elles sont très importantes pour faciliter l’administration d’une plateforme QWC.

      Vous aussi vous pouvez contribuer à QWC, directement ou en finançant les évolutions ! N’hésitez pas à nous contacter à infos@oslandia.com

    • sur Le prochain café de Chambéry

      Publié: 10 September 2024, 8:28pm CEST par r.a.

      Café Géo 25.09.24

      L’envers du décor des JOP de Paris 2024 : urbanisme dérogatoire et dépossession démocratique à Saint-Denis (93)

      Alors que les Jeux Olympiques et Paralympiques (JOP) de Paris 2024 se sont achevés, les impacts à l’échelle locale de ce méga-évènement de rayonnement mondial se révèlent progressivement. À Saint-Denis (93), ils tiennent notamment à un régime d’urbanisme dérogatoire qui a permis la construction accélérée d’équipements sans passer par les concertations citoyennes préalables. Les conséquences sont nombreuses tant en termes urbanistiques et d’accompagnement des processus de métropolisation que de bilan écologique et démocratique.

      Alexandre Schon, professeur d’histoire-géographie, sera l’intervenant.

       L’événement aura leu le 25 septembre 2024 à 18h30 à O’Cardinal’s, place Métropole, Cham

    • sur Petition results (to keep S2A operational after S2C’s launch)

      Publié: 9 September 2024, 6:32pm CEST par Olivier Hagolle

      Last week, I issued a petition to keep S2A operational, this post will give you some results. i will keep updating this post regularly, so please go-on signing the petition or forwarding it to your colleagues. Although I have not been trained as a lobbyist, and I have some regrets on how i did it, the petition and our communication has had a very large success. I guess the wood was very dry, and the fire spread very fast when I lighted the match.

      The campaign started with a blog post which explained why it is important to keep S2A operational, after S2C starts its operational duty. The blog post was relayed on LinkedIn and a petition. site was created. The tool I used, based on the « pytition » open source software, which works perfectly, is very simple and straightforward to set-up, but does not allow to collect the affiliations of the persons who sign (which is a pity). I thought I would collect the affiliations from the email address, but hundreds of signatories have signed with a gmail address or with various email service providers.

      Anyway, here are several statistics I gathered on these posts and on the petition on September 9th :

      PublicationStatistics
      Blog1030 visits
      LinkedIn68 000 impressions, 920 likes, 180 republications
      Petition1520 confirmed, 1850 total (confirmed+unconfirmed)

      I would like to thank everyone who signed, liked, forwarded, republished, retweeted, retooted (on Mastodon) ! I would have never dreamed to get 1500 signatures in one week only, I increased the goal progressively from 500 to 1500 ! I think our colleagues at ESA and EU should be proud of this achievement, which shows the importance and success to this great Copernicus mission not only in Europe, but also on all continents, in academy, research, companies, agencies, regions, governments, and even NGO.

      Regarding the petition, there are several caveats to be mentioned before analyzing the results :

      • Signing the petition is an individual decision, it does not mean that the organism/company for which the signatory works agrees with the signature, but it should be the general case. I will preserve the identity of the signatories, and only send the petition file to ESA and the EU, and quote the affiliations.
      • Even if they signed with gmail, I recognized a few of the petitioner names, and I know the company for which they work. Of course, I will not reveal their names here, but I hope you will trust me on this conversion.
      • To sign a petition requires a two step process. First fill the form with a email address, and then confirm the email address after receiving an email. It turns out 1250 persons confirmed their email address, and 250 did not. My statistics are based on the total number. I swear I did not add anyone myself. The files sent to ESA and EU will mention if the email was confirmed or not.
      • My network is mainly among space agencies, and then in academy.  This is largely visible in the table below. However, many persons form private companies signed, including a few CEO.
      • The duty of confidentiality applied among space agencies reduced the number of petitioners, but I have had feedback on the interest from many colleagues at CNES, ESA, EU. In fact, everyone I talked to would like to maintain S2A,  but I know no one in charge of the funding decisions…
      • It is interesting to note the presence of companies which produce earth observing satellites, but are very keen on using Sentinel-2 data as reference, thanks to the excellent quality of its data.
      • The numbers between parentheses are the numbers of petitioners per affiliation, when there is more than one.
      DomainAffiliations
      Research/ AcademyAT: BOKU Vienna (3), Salzburg (4)
      AU: New south Wales
      BR: Sao Polo, IPAM (Amazonia), Rio de Janeiro, Ceara, Viçosa, Mato grosso,
      BE: CRA -Wallonie (3), UC Louvain (7), Leuven, Bruxelles, Namur
      CA: Ottawa, Carleton, Alberta, Laval, Rimouski (Quebec), Sherbrooke, Victoria
      CL: Univ Chile (2)
      CH: Agroscope, Zurich, Bern, Geneva, Lausanne, Zurich : Ethz (2), Uzh(2), SwissTopo (3)
      CN: Chinese Academy of Science (3), Wuhan(3), Nanjing (6), Univ of Geosciences
      CZ: Prague (Charles University)
      DE: Fraunhofer institute Bonn, Thunen institute, Jena(2), Trier, Hamburg, Kiel (4), potsdam, Humbold Berlin (5), Osnabrueck(2), Tuebingen
      DK : LBST(2)
      EE: Tartu(2)
      ES: CSIC (8), Cantabria (6), Granada (4), Malaga, Valencia, Salamanca
      FI: Aalto (4)
      FR ; INRAE (16), IRD(14), CNRS (3), CIRAD, CEREMA, CEA, IGN (3), ONERA(3), OFB, Bordeaux, Toulouse (13) UT3, Toulouse INP (3), Ecole Normale Supérieure (2), ENSAE, Lyon, Paris Saclay (5), Paris, Strasbourg (6), IMEV Villefranche (8), Supagro (2), Montpellier, Nantes, Littoral, Orleans, Marne-la-vallée, Grenoble, Réunion(3),
      GR: Athens (4), Macedonia
      KE; NDMA : (Drought Mapping Agency)
      KR: Busan
      IE: Cork
      IL: Technion (4), Volcani Agri(3) Haifa(12) et jérusalem (9),
      IN; IITD (2)
      IT; CNR (10), Pavia, Torinio, Bologna, Napoli, Milano, Politecnico Milano, Calabria, Messina, Viterbe Tuscia (3), Venezzia,
      JP: Hokudai
      LE: Beyrouth,
      MA: Marrakech, El jadida
      NL: Wageningen (6)
      PT: Lisboa (6), Evora
      SG: Singapour (4)
      SI: Ljubiana
      SE: Lund
      TU: Tunis,
      TR: Istanbul (3), Bursa
      UK: NPL (8) Plymouth, London, Leicester, Liverpool, Surrey, Stirling, Bath, Cambridge (8), leeds
      US; MIT(3), Wisconsin(4), Michigan, Colorado, Cornell, Oregon, Oklahoma, Connecticut (2), South Florida (5)
      Maryland (6), Texas, Columbia,Providence(2), Harvard, Stanford (2) Boston (13), Kansas, Delaware, California, New York (2), Washington (3)
      AgenciesCNES (11), DLR (14), NASA(4), ESA (4), INPE (14), USGS(3), NOAA(2), VITO(15), EU (6), SATCEN (3), Eumetsat,, FAO(3), UN
      Companies- Satellite : Planet, Airbus (9); TAS, ConstellR, Aerospacelab (4), Earthdaily, Satellite-Vu, Spacetech-i (STI)
      - Software, engineering : CS, GMV, Google, CLS, ACRI-ARGANS-ARCTUS (6), Magellium (5), CGI, SISTEMA, Brockmann (4), CAP GEMINI, TRACASA(6), cloudferro(2)
      - Remote sensing Services : EOX, Kayrros (10), Hiperplan (4), Bluecham, Terranis, MEEO (3), Gamma.earth, Orbital-eos (3), Planetek, Orbital-Eye , Kermap (6), Netcarbon(4), MEOSS, I-SEA (4), Kanop (5), latitudo40 (4), mantle-labs (6), Mapsat (3) , WaterInsight (NL), remote-sensing-solutions (3), Satelligence(8), mundialis(2), DHI group(3)
      - Agriculture : Arvalis, Cargill, E-leaf
      - Insurance : AXA

      Government/Local communitiesHauts de France Région, Basque region, Canadian government, Andalucia, Umwelt Bundesamt
      NGOWWF (3)
    • sur [Story] Oslandia x QWC : épisode 2 / 8

      Publié: 9 September 2024, 6:03am CEST par Caroline Chanlon

      Nous détaillons dans cet article les améliorations que nous avons apportées à QWC récemment, principalement sur l’interface utilisateur.

      Dans l’application web, nous avons ajouté la possibilité d’avoir des couches de type MVT (Map Box Vector Tiles). Cet ajout permet par exemple d’utiliser les fonds de plan vectoriels de l’IGN avec différents styles.

      L’outil d’identification de l’application permettait déjà d’interroger des données pour en extraire ses attributs. L’identification se fait par un simple clic sur l’objet, ou en dessinant un polygone sur la carte en englobant plusieurs objets. Grâce à nos développements récents, il est désormais possible d’identifier des objets dans un rayon d’une certaine distance. Cette fonctionnalité permet par exemple d’identifier les bornes incendie à moins de 300 mètres d’un carrefour.

      Toujours dans l’application web, il est désormais possible de choisir le format de sortie de l’impression des mises en page. Cette fonctionnalité a été financée par la Métropole du Grand Lyon dont la migration de son application SIG Geonet est en cours de réalisation avec la mise en place de QWC.

      La Métropole du Grand Lyon a également financé d’autres fonctionnalités que nous avons pu reverser dans les dépôts officiels de QWC, notamment la possibilité de zoomer sur la carte en “dessinant” des rectangles au lieu d’utiliser les traditionnels boutons “+” et “-” disponibles en bas à droite de l’application.

      Pour rappel, QWC permet l’édition de données directement dans la base de données qui les contient. Nous avons eu l’occasion de renforcer le comportement de cette fonctionnalité en adaptant l’affichage des boutons d’ajout, de modification et de suppression des objets en fonction des droits paramétrés sur la couche en cours d’édition. Par exemple, si la couche est uniquement éditable par un utilisateur, alors les boutons d’ajout et de suppression d’objets ne sont plus visibles.

      En modifiant le service permettant de générer des permaliens, la base de données de configuration et l’application web, nous avons ajouté la possibilité pour les utilisateurs connectés sur une instance QWC de créer des marque-pages. Cela permet de rapidement sauvegarder une emprise sur laquelle des éléments ont été remarqués par l’utilisateur. Un marque-page permettra de revenir sur ces éléments plus tard, ou de les partager à d’autres utilisateurs. Le marque-page permet de sauvegarder la configuration actuelle de l’application avec les couches affichées, le fond de plan choisi, ainsi que les annotations (dessin) ajoutées par l’utilisateur. On peut choisir d’ouvrir le marque-page sauvegardé dans la fenêtre courante du navigateur, dans un nouvel onglet, ou seulement de zoomer sur l’emprise du marque-page enregistré (sans modifier l’affichage des couches).

      Vous aussi vous pouvez contribuer à QWC, directement ou en finançant les évolutions ! N’hésitez pas à nous contacter à infos@oslandia.com

    • sur [Story] Oslandia x QWC : épisode 1 / 8

      Publié: 4 September 2024, 6:52am CEST par Caroline Chanlon

      Depuis plusieurs années maintenant, et notamment grâce aux stages de fin d’études de Flavie et Benoît (qui avaient donné lieu à une série d’articles), Oslandia investit dans la solution logicielle QWC (pour QGIS Web Client) afin de proposer à ses clients de publier leurs projets QGIS sur le web.

      QWC est un framework applicatif et une application clefs en main, permettant de publier des projets QGIS sur le web, en partageant les mêmes données, la même configuration et le même rendu. Il comporte les éléments classiques d’un SIG web, et peut être totalement personnalisé.

      QWC est un projet OpenSource développé par plusieurs acteurs de la communauté. On peut notamment citer Sourcepole ( Suisse ), qui a réalisé le développement initial de QWC et continue de contribuer.

      Nous réalisons notamment des projets pour nos clients, par exemple l’EuroMétropole de Strasbourg, le groupement de recherche Silex, WKN, Amarenco, le Syndicat des Eaux de la Manche, les agences de l’eau, la Métropole du Grand Lyon et d’autres.

      Au passage, on notera que Clément Zitouni de l’EuroMétropole de Strasbourg contribue régulièrement aux différents dépôts du projet pour ajouter des fonctionnalités ou corriger certains problèmes directement. Bravo à lui !

      Au delà des projets client, Oslandia investit également en fonds propres sur QWC. Chaque année, environ 10% du temps de l’équipe de production est dédiée à l’auto-investissement sur les projets OpenSource que nous développons ou maintenons.

      Avec ces différents projets, Oslandia a pu intégrer plusieurs collaborateurs dans le développement et la maintenance de QWC. C’est toujours le cas de Benoît Blanc, rejoint par Gwendoline Andres notamment.

      Plusieurs améliorations ont été intégrées dans la solution logicielle, que ce soit de nouvelles fonctionnalités ou bien des corrections de bugs.

      L’environnement QWC est composé d’une application web écrite en Javascript (avec le framework React) ainsi que de micro-services en Python. Nous sommes intervenus sur tous ces composants, avec des contributions dans le cœur de l’application.

      QWC est en perpétuelle évolution avec de nombreuses fonctionnalités développées en continu.

      Dans les prochains articles, nous ferons un tour – non exhaustif – de ce qui a été réalisé récemment par Oslandia.

    • sur Variabilisez vos profils QGIS avec QDT

      Publié: 3 September 2024, 4:39pm CEST par Julien Moura
      Pièce jointe: [télécharger]
      Variables d’environnement ?

      Les variables d’environnement sont, comme leur nom l’indique, des paires clé/valeur permettant de décrire et paramétrer des applicatifs selon un environnement. Une variable peut intervenir à différents niveaux ou périmètres : système d’exploitation, session avec droits d’administration, annuaire/domaine, session utilisateur, applicatif, processus.

      Capture d'écran du gestionnaire de variables d'environnement de Windows 11 avec le dialogue permettant d'en modifier une qui est ouvert

      Gestion des variables d’environnement sur Windows 11

      Si vous êtes familier/ère avec l’utilisation de QGIS, c’est le même principe que pour les variables prédéfinies, liées à un projet, à des couches, etc. et utilisables à différents endroits (expressions, mode atlas/rapport…). D’ailleurs QGIS gère également des variables d’environnement à l’échelle de son installation et par profil (voir la documentation).

      Remplacement dynamique par QDT

      Dans QDT, vous pouvez définir des variables dans vos fichiers de configuration `QGIS3.ini` et `QGISCUSTOMIZATION3.ini`, qui seront ensuite interpolées avec les valeurs des variables d’environnement au moment du déploiement. Cette approche permet de paramétrer de manière flexible divers aspects de la configuration de QGIS sans modifier manuellement les fichiers sur chaque machine.

      3 avantages :

      – Flexibilité : adapter facilement la configuration à différentes machines sans modifications manuelles des fichiers.
      – Maintenance réduite : gérez une seule version des fichiers QGIS*3.ini qui s’adapte dynamiquement aux conditions locales.
      – Sécurité : séparer les données sensibles de la configuration en les conservant dans les variables d’environnement.

      Cet usage des variables est particulièrement utile dans des environnements où les chemins d’accès ou les configurations peuvent varier significativement entre les déploiements, permettant une personnalisation sans effort et à la volée de l’installation QGIS.

      En bonus, nous avons intégré un mécanisme primaire de sauvegarde des paramètres en cas de conflit entre les valeurs poussées par QDT et celles changées par l’utilisateur. Concrètement, cela se traduit par des sections préfixées directement dans le fichier INI :

       

    • sur Les cartes de l'Ordnance Survey irlandaise ont 200 ans

      Publié: 1 September 2024, 8:11pm CEST


      L'Irlande est connue pour être l'un des premiers pays à avoir été systématiquement cartographié au début du XIXe siècle. De 1825 à 1846, l'Ordnance Survey irlandaise a entrepris un relevé très détaillé de l'ensemble du pays afin de créer des cartes à l'échelle de 6 pouces pour 1 mile (environ 1:10 000). Par la même occasion, l'Ordnance Survey a recueilli des informations géographiques, archéologiques et toponymiques, notamment sur les coutumes locales, les monuments, les noms de lieux et les caractéristiques topographiques. Ces documents reflètent les paysages de l'Irlande tels qu'ils existaient dans les années 1820-1830 , ainsi que les pratiqus agricoles, la langue, le folklore, les métiers et la religion.

      Les documents laissés par l’Ordnance Survey (OS) pour l’Irlande sont particulièrement importants car ils nous permettent de mieux comprendre les processus et les pratiques de cette enquête nationale qui à eu un impact profond sur le gouvernement, la politique, la société et l’économie de l’Irlande des XIXe et XXe siècles. Ces documents de l’OS dirigée par les Britanniques n’ont pas été conservés en Grande-Bretagne mais à Dublin. En effet, contrairement aux premiers documents de l’OS sur la Grande-Bretagne en grande partie détruits pendant la Seconde Guerre mondiale, les comptes rendus de l’OS sur l’Irlande ont survécu. Ces comptes rendus offrent une opportunité majeure de faire progresser notre compréhension non seulement de la cartographie de l’Irlande sous domination britannique, mais aussi de la manière dont ce pouvoir a été exercé par le biais d’activités mises en œuvre localement « sur le terrain ». Les opérations de l'OS en Irlande ont eu un impact et une influence plus larges sur les levés topographiques et la cartographie dans d'autres parties du globe. Par exemple, la mesure de la ligne de base du Lough Foyle par le colonel Colby (1827-1828) a attiré l'attention de George Everest, qui a ensuite adopté ce qu'il a appelé le « beau système » de Colby pour le Grand relevé trigonométrique de l'Inde. 

      Le projet OS200 « Recartographie numérique du patrimoine de l'Ordnance Survey d'Irlande », lancé par des chercheurs de l'Université de Limerick, s'appuie sur les quatre sources principales de l'Ordnance Survey créées lors de la première mission d'observation de l'Irlande : les cartes de 6 pouces, les mémoires, les lettres et les livres de noms de lieux. L'importance de ces sources réside dans leur description de l'Irlande d'avant la Grande famine. 

      Les sources réunies sur le site [OS200] (source : irelandmapped.ie)



      Les cartes elles-mêmes sont extrêmement détaillées et magnifiquement dessinées. Grâce au travail de numérisation du projet OS200, on peut explorer ces cartes originales de l'Ordnance Survey d'Irlande dans les moindres détails sous forme de cartes interactives. 
      Le projet vise à rassembler des cartes et des textes historiques de l'Ordnance Survey (OS) pour former une seule ressource en ligne, librement accessible à l'usage des universitaires et du public. Les résultats numériques de l'OS200 permettent non seulement de faire progresser notre compréhension de la manière dont l'Irlande a été cartographiée il y a deux siècles, mais ouvrent à un nouveau public l'héritage et les impacts de l'OS, reconnaissant l'importance durable de ce qui a été accompli et marquant le bicentenaire de son instigation.
      Le projet est soutenu par la Royal Irish Academy, le Public Record Office d'Irlande du Nord, la Bibliothèque nationale d'Irlande et le Digital Repository of Ireland.

      Pour compléter
      L’Ordnance Survey Ireland (OSI) (en gaélique Suirbhéireacht Ordanáis na hÉireann) est l’agence gouvernementale de cartographie de l'Irlande. Il est l’équivalent de l’IGN français. Cet organisme a pris la succession en 1922 de la division irlandaise de l’Ordnance Survey du Royaume-Uni qui existait depuis 1824. Tout son travail prend sa source dans les différentes missions menées entre 1815 et 1845 par des officiers anglais du Royal Engineers et par des membres du service des Mines qui ont à ce moment-là rédigé un ensemble de cartes d’une précision jamais atteinte sur l’île. En collaboration avec son alter ego en Irlande du Nord, cet organisme est destiné à cartographier à différentes échelles l’ensemble de l’île d’Irlande.
      L’Irlande (comme le Royaume-Uni) n’utilise généralement pas les latitudes et les longitudes pour décrire un lieu qui se trouve sur leur territoire national. Ils ont mis en place un système de référence spécifique. L’île d’Irlande est divisée en 20 cases de 100 km de côté, chacune identifiée par une lettre. Chaque case possède une graduation numérique en partant du coin sud ouest. Par exemple G0305 signifie Case G 3 km est, 5 km nord. Il existe également des tirages dit Discovery Series de l'OSI. L’île d’Irlande est ainsi divisée en cases de 30 km de côté, par 40 km en largeur, à l'échelle de 1:50 000 chacune identifiée par un numero (1 à 89). Voir plan, ref: No. 41 ~ Centre de Westmeath (source : Wikipedia)
      OS200. Digitally Re-Mapping Ireland’s Ordnance Survey Heritage
      Irish Townland and Historical Map Viewer
      PRONI Historical Map (uniquement Irlande du Nord)
      GeoHive. Ireland's National Geospatial Data Hub
      Ireland Mapped website 
      Lilley, K.D & Porter, C. (2022) 'A Journey Through Maps: Exploring Ireland’s Cartographic Heritage'" Public lecture for Armagh Robinson Library (video Youtube)
      Articles connexes
      L'histoire par les cartes : l'Irlande aux XIXe et XXe siècle
      L'histoire par les cartes : le mouvement des enclosures en Grande Bretagne aux XVIIIe et XIXe siècles
      Cartographier le parcellaire des campagnes européennes d’Ancien Régime
      L'histoire par les cartes : la mappe sarde du XVIIIe siècle
      La grille de Jefferson ou comment arpenter le territoire américain
      La parcelle dans tous ses états (ouvrage en open access)
      Derrière chaque carte, une histoire : découvrir les récits de la bibliothèque Bodleian d'Oxford
      Cartes et atlas historiques


    • sur Barres empilées : comment s’en débarrasser ?

      Publié: 1 September 2024, 1:10pm CEST par Éric Mauvière

      C’est l’un des graphiques les plus utilisés dans la production statistique française, mais aussi le plus paresseux et le moins efficace pour comprendre et surtout mémoriser. La plupart des responsables éditoriaux le savent, formés qu’ils/elles le sont à la sémiologie graphique. Pour autant, pas moyen de remiser ces empilements : ils collent aux publications statistiques comme le sparadrap au capitaine Haddock !

      Prenons comme premier exemple ce graphique sur l’évolution des crimes en France, classés par type. Le diagramme en barres empilées traduit tel quel le tableau croisé des données, y intégrant un total. Et c’est la principale raison de son emploi : on voit en même temps l’évolution d’ensemble et le détail des catégories. 

      Source : ministère de la Justice/SG/SEM/SDSE, fichier statistique Casier judiciaire national

      Si l’on voit bien le mouvement général, il est plus difficile d’apprécier les détails, d’analyser la morphologie de ces rectangles colorés. Quand la base d’une série est horizontale, par exemple celle des homicides en bas, il suffit d’en suivre visuellement les sommets. Mais quand les segments flottent, le lecteur doit mener deux opérations mentales exigeantes – extraire visuellement la série et la recaler sur une base commune. Cet effort à répéter fatigue et complique la mémorisation, faute d’images prêtes à photographier mentalement.

      Comment ordonner les catégories, choisir les couleurs ? “Autres crimes” est la première catégorie que l’œil rencontre, c’est aussi la moins signifiante. Et la palette adoptée crée deux groupes artificiels, un en violet et l’autre en gris.

      Que va-t-on retenir d’une telle image ? Au mieux, oubliant les catégories, une tendance globale à la baisse avant la crise du covid, et une reprise post-covid qui ressemble à un rattrapage – dont on ne sait s’il est réel ou purement administratif (du fait d’instructions retardées).

      Distinguons chaque série dans une collection de petits graphiques triés et catégorisés

      Avec un outil soucieux de sémiologie comme Datawrapper (ou Flourish), testons une variante où chaque composante peut apparaitre séparément, la comparaison avec l’évolution d’ensemble restant possible. 

      Retenons le même ordre de tri que le graphique d’origine, par effectifs finaux décroissants. Cette nouvelle construction graphique présente d’abord les trois catégories les plus importantes. Elles ont en commun de bien marquer l’effet de rattrapage précédemment évoqué. L’importance des viols est manifeste. Un rapide calcul visuel montre qu’ils représentent au total la moitié des crimes. Ce constat m’a particulièrement frappé.

      Je le souligne donc, dans cet affinage prêt à diffuser, à l’aide d’une couleur différente et d’un titre qui reprend deux informations majeures.

      Ces petits graphiques sont évidents et élégants, avec leurs axes épurés dont les étiquettes sont davantage conformes aux règles de lisibilité (écriture horizontale pour les années, séparateur des milliers pour les effectifs).

      Un bon graphique présente toutes les données et dégage une ou quelques images simples (par exemple les trois graphiques de la première rangée), que le lecteur pourra relier à des enseignements verbalisés. Il les mémorisera ainsi durablement, grâce à la puissante association entre le visuel et le sémantique, quand ces deux canaux résonnent en cohérence.

      C’est le mantra cher à Jacques Bertin, le grand sémiologue français : trier judicieusement ce qui peut l’être, puis catégoriser pour hiérarchiser les niveaux d’information.

      Étendons la démarche à un jeu de données plus fourni

      Issu d’une source différente, ce nouveau diagramme empilé traite d’un sujet voisin, les actes de délinquance, en regardant plutôt les victimes et ce à quoi elles sont sujettes selon leur âge. La dimension de l’âge, en X dans ce diagramme, est ordonnée de façon logique, croissante. 

      Mais qu’en est-il des indicateurs de délinquance ? L’auteur ne précise pas le critère de tri en Y et l’œil du lecteur n’en saisit pas la logique. Renforcée par les contrastes lumineux, l‘impression d’ensemble est bruitée et inconfortable. 

      Par ailleurs, la palette de couleur n’est pas ordonnée, elle n’exprime pas la progression des âges. Le lecteur peinera à regrouper visuellement des tranches voisines.

      La construction suivante utilise une palette visuellement ordonnée, désempile les barres, et reclasse les faits de délinquance pour construire l’image la plus pure, la plus significative – perceptible dans l’instant minimal de vision, selon les vœux de Bertin. Une telle image, comme il l’exprime dans sa “Sémiologie graphique”, tend vers deux critères topologiques : connexité (peu ou pas de trous, une forme ramassée) et convexité (enveloppe plutôt ronde). Idéalement, une belle diagonalisation !

      Un bon outil graphique facilitera les reclassements. Après quelques essais, la tranche des 70 ans et plus fournit un bon critère de départ pour un tri. L’examen conjoint des tranches les plus jeunes m’amène à définir trois groupes. Ce nouveau graphique déroule une vague expressive. 

      Il faut se faire violence, parfois, pour chambouler l’ordre par défaut des nomenclatures. Bertin l’évoquait malicieusement, dans un dernier article, témoignant de sa longue – et fructueuse – expérience de collaboration avec la statistique publique : « À l’école de l’Insee, reclasser un tableau de données était une abomination ! »

      Le geste suivant, encore plus audacieux pour le statisticien, consiste à nommer ces groupes, dès lors qu’il saisit ce qui les caractérise.

      Un titre informatif s’en déduit naturellement. C’est l’association entre messages de premier niveau clairs et une forme d’ensemble simple et significative qui va consolider l’inscription en mémoire de la hiérarchie des enseignements.

      Pourquoi la plupart des graphiques statistiques sont-ils paresseux ?

      Certes, la puissance de la sémiologie graphique n’est pas suffisamment exprimée et enseignée, que ce soit à l’école ou en formation continue. Au pays de Bertin, c’est pour le moins étonnant, voire dissonant. À cela, les responsables d’enseignement ou de services statistiques peuvent facilement remédier, si ils/elles le souhaitent – et même si cela prend un peu de temps ?

      Mais ce déficit renvoie plus fondamentalement à la posture de l’analyste, au rôle qu’il/elle se donne ou qu’on lui donne : mettre à disposition des chiffres solides et laisser au lecteur le soin de les interpréter ? 

      Ou chercher en plus à transmettre, avec les outils de la sémiologie graphique, ce que soi-même, avec son expertise, sa curiosité, sa déontologie, on a fini par retirer de ses multiples explorations. C’est la voie que, pour ma part, j’approfondis comme rédacteur d’articles, et enseigne en formations sur mesure.

      Pour en savoir plus

      L’article Barres empilées : comment s’en débarrasser ? est apparu en premier sur Icem7.

    • sur Let’s ask Copernicus to keep S2A operational after S2C launch

      Publié: 30 August 2024, 3:01pm CEST par Olivier Hagolle

      The launch of Sentinel-2C (S2C) is scheduled on the 4th of September 2024, next week ! After 3 months of commissioning phase, S2C will replace S2A, to fulfill the Sentinel-2 mission together with S2B. S2B will later be replaced by S2D. The current plans are to keep S2A as a redundant satellite, in case something happens to one of the two other satellites. It seems likely that S2A will stop acquiring images once S2C is operational.

      I guess the decision not to keep S2A operational would be for cost reasons. The operation costs are high : although I have no information, I guess these costs are on the order of magnitude of one or two dozens of millions per year. My reference is the SPOT4 (Take5) experiment which cost ~1 M€ for a few months with a limited amount of data. In the case of S2, the data volumes to download, process and distribute are huge, and ESA would also need to monitor data quality, have a tighter orbit and attitude control… Anyway, the cost of operating a satellite is much lower than the cost of the satellite itself (Sentinel-2B’s price was a few hundreds of M€).

      I am very proud Europe was able to build the Sentinel-2 mission with a revisit of 5 days and funding of 20 years of operations, including two replacement satellites. But we could do even better for a limited cost. I write this letter to try to convince scientific, public and private users that 5 days revisit is not enough. We should therefore try to set-up a campaign to ask ESA/UE to reconsider the decision to end S2A imaging operations when S2C is operational. Help, feedback and ideas are welcome !

      A petition is available here.

      Revisit needs Correlation of start of season determination as a function of the cloud free observation frequency in Germany. « 2018 was a hot and dry year with exceptionally low precipitation and cloud cover ». From Kowalski et al, 2020 : [https:]]

      As an example, here are the cloud free revisit needs expressed by the vegetation monitoring community.

      • Land cover classification : a clear observation per month
      • Biomass/Yield estimation : a clear observation per fortnight
      • Phenology (start and end of season, flowering…) : a clear observation per week

      Waters, especially coastal waters, tend to change even quicker, with the additional drawback to be affected by the reflection of the sun on water, on one third to one half of the acquisitions.

      Very recently, several papers have studied the biases due to the insufficient and irregular observations from space optical missions. Bayle et al, 2024 show that part of the observed greening of mountains observed on the Landsat time series acquires during decades is in fact due to the increase of the revisit frequency, which is still not always sufficient to capture the short-lived peak of greenness in alpine ecosystems. Langhorst et al, 2024 show that the loss of observations due to clouds leads to miss important hydrological events that bias statistics.

      5 days revisit is not enough

      The global average cloud cover is 70%, with of course large variations across seasons and location. It means that on average, for a given pixel, two observations out of three are cloudy. But if you need to observe a large area simultaneously cloud free, it is even more difficult. I don’t have statistics on that, but roughly only 10% of Sentinel-2 products on 100×100 km² are fully cloud free.

      Due to the fact that the great majority of images have clouds, our users have asked for cloud free periodic syntheses. At the THEIA land data center, we produce every month surface reflectances syntheses (named « Level3A » products). Our WASP processor computes a weighted average of all the cloud free surface reflectances found during 46 days (from 23 days before to 23 days after the synthesis date). When no cloud free data is available, we raise a flag, and provide one of the cloudy reflectance values acquired during the period. These regions appear in white (but don’t confuse them with snow in mountains).

      Since these syntheses use 46 days, and not 30 days, they do not meet any of the needs explained above. The  46 days duration was tuned to have less than 10% of pixels always cloudy on average per synthesis. Here are some examples.

      South-Western EU

      Over western Europe, the top left image shows a summer drought period, with a reduced amount of always cloudy pixels. However, some are visible in the East of Belgium/Netherlands. The images in winter have large region with no cloud free data, and even in April 2023, there is a remaining cloudy region in the east of France.  You might have noticed that the remaining regions often have a trapezoidal shape. It is explained by the fact that Sentinel-2 swaths overlap, and it is of course more likely to miss cloud free pixels where we have two observations every 5 daysinstead of one. More examples are available at THEIA : [maps.theia-land.fr]

       : July 2022 (Drought in Europe) December 2022
       
      January 2022 (a dry January ) April 2023
      Germany

      South-Western Europe is blessed by a nice weather (when it’s not too hot), but Germany has a lot of clouds. Our colleagues form DLR also process Level3A syntheses with our tools. Here are some examples. You may also see by yourselves at this address :  [https:]

      April 2023 November 2023
      Norway

      Norway cartographic agency (Kartverket) also uses our softwares MAJA and WASP to produce countrywide syntheses, but they had to change the parameters to obtain a correct result. Summer syntheses are produced each year, but they often need a manual post-processing to enhance the results where some clouds are remaining. This is despite the orbits fully overlap in Norway.
      [https:]

      Consequences

      The main consequence of persistent cloudiness on S2 images is that our observations are quite far from the expressed needs, except in the sunniest countries. As a result, studies and retrievals are not as accurate as they could be, biases and noise appear. In my sense, the main issue is the fact that persistent clouds on images introduce a random unreliability, that prevents to provide an operational service.

      S2 quicklook thumbnails in June 2019 on Toulouse tile (31TCJ)

      One of the most acute cases in my memory happened in June 2019. The region near Toulouse suffered a long and early heat wave, but clouds were present every 5 days in the morning, when S2A or S2B were acquiring data. During a heat wave,it is very hard to explain local customers that the product didn’t work because of clouds.

      As a result, insufficient revisit hampers the development of services based on optical images.

      There are some ways around, using Landsat 8 and 9 (but resolution is 30m), Sentinel-1 (but SAR provides a completely different information), Planet (but only 4 bands, very expensive if you need to work at country scale, and not the same quality). Moreover, Planet uses Sentinel-2 a lot to improve its products. A better availability of S2 data would also improve the data quality of Planet data and the soon to be launched Earth Daily constellation.

      Dear EU, please keep S2A operational !

      That’s why it would be a pity not to go on using S2A after S2C commissioning phase. With three satellites, S2A passing for instance two days after S2B, we could produce cloud free syntheses every 20 days, based on 30 days of data only. We would be closer to the needs, and would reduce a lot the unreliability of S2 services.

      Of course, it means an increase of data volume and processing costs, but it is only a few % every year of the cost of one satellite. If it is really too much, let’s do it over Europe only, as S2 is funded by Europe. Maybe EU fears that if we ask for it, users of the other Sentinel missions will also ask for it. But S1 does not have clouds (and S1B has been lost) and S3 has a daily overpass already. Therefore, there are good reasons to operate a third satellite in the case of S2 only.

      If you agree or disagree with me, or if you have more arguments to provide, please add a comment to this page !

      Petition

      I am not sure it is the best way to have influence on Copernicus, but I have set up a petition on an ethical web service provider, feel free to sign here : [https:]]

      References :
      • Bayle, A., Gascoin, S., Berner, L.T. and Choler, P. (2024), Landsat-based greening trends in alpine ecosystems are inflated by multidecadal increases in summer observations. Ecography e07394. [https:]]
      • Langhorst, T., Andreadis, K. M., & Allen, G. H. (2024). Global cloud biases in optical satellite remote sensing of rivers. Geophysical Research Letters, 51, e2024GL110085. [https:]]
    • sur Sélection 2025 du Prix du Livre de géographie des Lycéens et Etudiants

      Publié: 30 August 2024, 12:36pm CEST par r.a.

      – Rémi Barbier et Sara Fernandez (dir), Idées reçues sur l’eau et sa gestion, Le Cavalier bleu

      – Marie Bonte, Nuits de Beyrouth, ENS éditions

      – Marc Brosseau, Tableau de la géographie littérairePuppa

      – François-Michel Le Tourneau, Chercheurs d’or, CNRS éditions

      – Sylvain Genevois, Matthieu Noucher et Xemartin Laborde, Le blanc des cartes, Autrement

    • sur Journée d’étude : La carte, «oeil de l’histoire » (XVI?-XVIII? siècle), BnF / EHESS-CAK, 8 octobre 2024

      Publié: 30 August 2024, 12:27pm CEST par Catherine Hofmann
      Bibliothèque nationale de France, site Richelieu, Salle des conférences, entrée par le 5 rue Vivienne 75002 Paris

      La géographie comme « oeil de l’histoire » est une expression courante durant la période moderne, mais elle s’articule de manière spécifique
      si l’on pose l’objet cartographique comme point d’observation. L’objectif de cette journée d’étude est de réinvestir le couple carte et histoire dans l’empan chronologique du XVI? au XVIII? siècle, en Europe et dans ses prolongements impériaux, selon plusieurs directions.

      La journée d’étude est organisée par Oury Goldman (Paris 1 Panthéon- Sorbonne), Lucile Haguet (Bibliothèque municipale du Havre),
      Catherine Hofmann (BnF, Cartes et plans) et Geoffrey Phelippot (EHESS-CAK). Elle a bénéficié de la coopération du département des
      Cartes et plans (BnF) et du Centre Alexandre-Koyré (CAK).

      PROGRAMME


      9h15 : Accueil des participants


      9h30 : Mot d’accueil de la BnF par Cristina Ion (directrice adjointe du département
      des Cartes et plans de la BnF)
      9h45 : Introduction générale par Oury Goldman (Paris 1 Panthéon-Sorbonne), Lucile
      Haguet (Bibliothèque municipale du Havre) et Geoffrey Phelippot (EHESS-CAK)


      Session 1 : La carte, un art de la mémoire au service de l’histoire
      Session présidée par Antonella Romano (EHESS-CAK)
      10h : Aurélien Ruellet (Le Mans Université)
      « Comme la toile où l’on place en son lieu ce que l’on aprend », La carte et l’histoire dans
      les collèges oratoriens (années 1640-années 1780)
      10h30 : Louise McCarthy (Université Paris Cité)
      La carte comme théâtre de la mémoire, « Ould Virginia » de John Smith et Robert
      Vaughan (1624)
      11h : Monika Marczuk (BnF, département des Cartes et plans)
      Histoire en un coup d’oeil : Mappemonde historique de J.-L. Barbeau de La Bruyère
      (1750)


      11h30-11h45 : Pause-café


      Session 2 : Quand l’historien se fait cartographe
      Session présidée par Jean-Marc Besse (CNRS-EHESS)
      11h45 : Éric Grosjean (École Pratique des Hautes Études)
      Fabio Calvo ou les principes architecturaux de Vitruve appliqués à la cartographie
      historique de la Rome Antique à l’aube du XVI? siècle
      12h15 : Ghislain Tranié (Centre Roland Mousnier, Sorbonne Université)
      L’oeil du polygraphe. Gabriel Simeoni et la fabrique des lieux de l’histoire au milieu du
      XVI? siècle


      12h45-14h : Repas


      14h-15h : Présentation des cartes par Catherine Hofmann (BnF, Cartes et plans) en
      Salle des vélins, sur inscription, dans la limite des places disponibles.

      Session 3 : Chronotopoï, deux exemples de lieux cartographiés avant tout pour leur histoire
      Session présidée par Lucile Haguet (Bibliothèque municipale du Havre)
      15h : Iona Zamfir (Bucharest National Museum of Maps and old Books)
      Jerusalem as Chronotopos, The Tension between the Textual and Visual Mediums in
      16 – Century Geographic Literature
      15h30 : Pierre Salvadori (Université d’Artois)
      Anatomie d’une connexion, histoires situées du pont transarctique dans la cartographie
      du XVI? siècle


      16h-16h15 : Pause-café


      Session 4 : La carte comme outil stratégique et politique
      Session présidée par Catherine Hofmann (BnF, Cartes et plans)
      16h15 : Anne-Rieke Van Schaik (University of Amsterdam)
      Making History, Floris Balthasar Puts Dutch Victories on the Map (c.1600-1610)
      16h45 : Grégoire Binois (Institut d’histoire moderne et contemporaine)
      Cartographier l’histoire militaire aux XVII? et XVIII? siècles, une activité stratégique
      17h15 : Kory Olson (Stockton University)
      L’oeil de la Révolution, Le Plan d’une partie de la ville de Paris de Mangin
      17h45-18h00 : Conclusion générale – Oury Goldman, Lucile Haguet et Geoffrey Phelippot

    • sur Mardi 24 septembre 2024, au Café de Flore, c’est la rentrée des Cafés Géo !

      Publié: 29 August 2024, 7:25pm CEST par r.a.

      Cela fait 26 ans que l’aventure des Cafés Géographiques se poursuit et une quinzaine d’années qu’elle emprunte l’adresse parisienne du Café de Flore. Cette année encore, le mardi de 19h à 21h, la salle du premier étage du Flore permettra au public curieux et intéressé d’apprendre et/ou d’échanger à l’occasion de sujets variés grâce aux intervenants invités : géographes, historiens, diplomates, économistes, géopolitologues, journalistes… Cette saison 2024-2025 proposera des sujets d’actualité mais aussi d’autres sujets moins connus pour lesquels l’analyse spatiale et les outils de la géographie proposent des lectures pertinentes et … souvent stimulantes !

      Programme des Cafés géographiques de Paris
      Saison 2024-2025

       

      Mardi 24 septembre 2024 : Les territoires de l’extrême droite en France et en Europe (avec Béatrice Giblin, géographe)

      Mardi 15 octobre 2024 : Les Etats-Unis et le Monde (avec Philippe Etienne, diplomate)

      Mardi 19 novembre 2024 : Qu’est devenue la Yougoslavie (avec Jean-Arnault Dérens et Laurent Geslin, journalistes)

      Mardi 17 décembre 2024 : Géohistoire de l’humanité (avec Christian Grataloup, géohistorien)

      Mardi 28 janvier 2025 : Vivre au bord de la mer (avec Annaig Oiry, géographe)

      Mardi 11 février 2025 : Géographie des pandémies contemporaines (avec Guillaume Lachenal, historien)

      Mardi 25 mars 2025 : Nous aurons toujours besoin des forêts (avec Laurent Testot, journaliste)

      Mardi 29 avril 2025 : Littérature et géographie (avec Emmanuelle Loyer, historienne, et Jean-Louis Tissier, géographe)

      Le Café géo du mardi 24 septembre 2024, 19h à 21h
      Les territoires de l’extrême droite en France et en Europe
      (Avec Béatrice Giblin, géographe, géopolitologue)

       

      Béatrice Giblin, géographe et géopolitologue française, professeur émérite des universités, est l’invitée des Cafés Géographiques pour parler de l’extrême droite de France et en Europe.

      En 2012, dans un numéro de la revue Hérodote, elle présentait déjà une analyse géopolitique de l’extrême droite en Europe. En 2022, toujours dans la revue Hérodote, elle posait la question d’une nouvelle géopolitique électorale en France. Aujourd’hui, en 2024, à l’heure où l’extrême droite accroît son audience dans de nombreux pays européens, la lecture géopolitique et l’analyse spatiale s’avèrent des clés de lecture indispensables de ce phénomène.

      Ainsi en France, les dernières élections ont montré un net renforcement du processus de diffusion géographique du vote de l’extrême droite. Si le cœur des métropoles et leurs banlieues restent des pôles de résistance à ce vote, l’espace périurbain a constitué le principal espace de progression du vote RN. A l’échelle européenne, Béatrice Giblin a publié dans le journal Le Monde en juin 2024 une série de cartes qui traduit les ressorts communs affectant les territoires les plus affectés par le vote croissant en faveur de l’extrême droite en Europe. Il y a là matière à mieux comprendre ce phénomène et à participer à la discussion collective pendant ce café géo.

      Daniel Oster, Paris, le 29 août 2024

    • sur ESRI et FME

      Publié: 29 August 2024, 2:00pm CEST
      Septième et avant-dernière partie du tour d'horizon des SIG sur les dessous des calculs géométriques : un petit tour chez ESRI et FME
    • sur Michel Bruneau, un « géographe de transitions »

      Publié: 27 August 2024, 9:59pm CEST par r.a.

      Michel BRUNEAU, Parcours d’un géographe de transitions. L’Harmattan, 2023

      Ce « parcours » est le parcours d’une vie, d’une vie professionnelle de géographe bien sûr, mais aussi d’une vie personnelle où amitiés et rencontres intellectuelles jouent un grand rôle, dans le milieu universitaire français comme sur ses terrains d’études en Thaïlande ou en Asie Mineure. En utilisant le terme « transitions » pour qualifier une carrière de plus de 60 ans, Michel Bruneau se réfère à l’espace -passage de l’Asie du Sud-Est au terrain pontique de la Grèce au Caucase -, mais aussi à son évolution personnelle sur les plans méthodologique et épistémologique.

      Le géographe est avant tout un homme de « terrain », terme qui définit à la fois un espace, des méthodes et le discours produit sur cet espace. Pour ce faire il collecte des données selon des moyens traditionnels (enquêtes, questionnaires…) mais aussi des techniques novatrices dans les années 1960/1970 (images de télédétection…) et utilise les travaux des autres sciences humaines (anthropologie, histoire…). Le choix des deux grands terrains d’études de Michel Bruneau, l’Asie du Sud-Est et le monde grec pontique, est en grande partie lié à son histoire familiale : un grand-père fonctionnaire en Indochine et un père élève de Pierre Gourou à Hanoï dans le premier cas, des vacances et l’étude du grec ancien au lycée dans le second cas. C’est ainsi que le jeune géographe a commencé sa carrière à l’université de Chiang Mai, dans le nord de la Thaïlande dans le cadre du service civil de coopération afin d’y étudier « Les populations de riziculteurs des bassins et vallées ».

      A travers les longues années passées en Thaïlande, nous pouvons suivre l’évolution intellectuelle de l’auteur mais aussi celle de la pensée géographique de l’époque.

      Les premiers travaux de M. Bruneau se font dans le cadre de la géographie tropicale telle qu’elle a été définie par P. Gourou, une géographie classique post-vidalienne. Il recueille de nombreuses données qualitatives et quantitatives auprès des paysans dont il partage la vie, avec l’aide des étudiants locaux, notamment chez les Karen de la montagne et dans les villages du bassin de Chiang Mai. Ces travaux qui intègrent déjà les images de télédétection Landsat pour la cartographie et le traitement informatique des données chiffrées, sont la base de sa thèse préparée au Centre d’Etudes de Géographie tropicale (CEGET) de Bordeaux.

      Au cours des années1970, un clivage divise les géographes selon des facteurs intellectuels et politiques. La géographie post-vidalienne de P. Gourou est vivement contestée par les tenants de la « géographie critique » qui utilise les concepts marxistes de mode de production. Ces derniers expliquent la différenciation des espaces ruraux thaïlandais par la pénétration du mode de production capitaliste sous la pression des impérialismes anglais et français. M. Bruneau, ancien soixante-huitard, sensible aux thèses marxistes d’analyse des sociétés et converti au catholicisme de Témoignage Chrétien, adopte l’approche de la géographie critique dans sa thèse, dirigée par Jean Delvert. La soutenance de celle-ci, en 1977, suscite de vives controverses. D’un côté, les géographes conservateurs – dont le directeur de thèse –, tenants de la géographie tropicale, s’étonnent de l’utilisation de concepts marxistes et refusent l’utilisation de l’histoire et des méthodes nouvelles. De l’autre côté, les « nouveaux » géographes, de gauche, tiers-mondistes, valorisent la problématique marxiste et dénoncent la filiation entre géographie coloniale et géographie tropicale. Sous la pression de J. Delvert, il n’y eut pas de compte rendu de la thèse de M. Bruneau dans les Annales de géographie.

      Troisième étape dans son itinéraire intellectuel : l’abandon du schéma marxiste d’explication. La poursuite de ses recherches en Thaïlande l’amène à formuler des limites à la géographie critique. La lutte des classes des années 70 n’a pas débouché sur une réforme agraire. La forte croissance économique et industrielle capitaliste du pays a amené la création d’une nouvelle paysannerie aisée, intégrée dans une force de travail mondialisée. On peut parler de villageois urbanisés dont la cohésion est assurée par une forte identité culturelle.

      Les derniers travaux de M. Bruneau sur son terrain asiatique sont marqués par la prédominance de la dimension géohistorique dont les maîtres sont F. Braudel puis C. Grataloup. Il a ainsi montré qu’en Asie de l’Est, deux modèles spatiaux ont été élaborés sur la longue durée, l’un polycentrique et hétérarchique (1), sur le modèle indien, qu’il appelle Etat-mandala, l’autre, de type hiérarchique autour d’une autorité centrale forte, sur le modèle chinois.

      Le second grand terrain du géographe concerne les Grecs pontiques et l’amène à se déplacer de la Grèce à la Turquie et au Caucase russe et géorgien, mais aussi dans d’autres parties du monde (France, Amérique du Nord, Australie). Ces recherches ont été faites dans le cadre d’une nouvelle unité de recherche, « Territorialité et Identité dans le domaine européen » (TIDE). Le travail porte sur les diasporas et les communautés transnationales. En effet, le traité de Lausanne (1923) a contraint les Grecs d’Asie Mineure, du Pont et de Thrace orientale à quitter la nouvelle République turque pour l’Etat grec puis le reste du monde.

      Bruneau s’engage dans ces recherches avec une nouvelle approche scientifique, celle de la géographie culturelle, telle qu’elle a été définie par Paul Claval. Les descendants des migrants pontiques ont gardé une forte mémoire du territoire d’origine de leurs ancêtres. La transmission de la mémoire des lieux d’origine, assurée par des associations culturelles, utilise une iconographie très riche et des voyages-pèlerinages. Monuments commémoratifs, images murales, toponymes évoquent aussi bien les mythes antiques que les violences turques plus récentes. On part à la découverte du village où vivaient les ancêtres ; même s’il est difficile de retrouver leurs maisons et si l’église a été transformée en mosquée, on reçoit un bon accueil des habitants actuels. La mémoire est aussi entretenue par les œuvres littéraires, comme les romans historiques de Christos Samouelidis ou les articles de Photis Kontoglou.

      Le travail sur les migrations des Grecs pontiques a amené M. Bruneau à élaborer un nouveau concept, celui de « peuple-monde de la longue durée » (2). Un peuple-monde est une entité socio-politique et culturelle dont la dimension excède celle d’un seul Etat. Les enquêtes de terrain sont fondamentales dans ce nouveau champ de recherche, mais l’utilisation de données statistiques et la cartographie des paysages n’y ont pas leur place. De nombreuses références scientifiques ont guidé notre géographe, celles de F. Braudel et de de C. Grataloup déjà cités, mais aussi celles de P. Nora, de J. Gottman, d’A. Smith (l’approche mytho-symbolique de « peuple ») ou de J. Lacarrière (continuité de l’hellénisme de l’Antiquité à nos jours). Un peuple-monde a un Etat territorial et une diaspora mondiale.

      Chez les Grecs, la continuité historique a été assurée par la langue, porteuse d’une culture, l’hellénisme. Une même langue parlée depuis l’Antiquité et une même spiritualité chrétienne depuis Byzance, l’orthodoxie. Un modèle spatial en cinq auréoles concentriques permet de comprendre la dimension spatiale de l’hellénisme, depuis l’espace égéen central jusqu’aux auréoles externes de la diaspora dans le Nouveau Monde et en Afrique.

      A partir de ses analyses sur l’hellénisme, M. Bruneau a pu distinguer cinq autres peuples-monde de la longue durée : Indiens, Chinois, Juifs, Arméniens et Iraniens. La longévité de leur culture est exceptionnelle (même s’ils ont assimilé d’autres éléments culturels).

      En conclusion, M. Bruneau reconnait qu’au cours de sa vie de chercheur-géographe, il a suivi deux approches différentes, celle d’une étude spatiale à différentes échelles (village, Etat, ensemble d’Etats) en Asie du Sud-est et celle des réseaux et des lieux à l’échelle mondiale pour la diaspora grecque. Mais au-delà de leurs différences, ces approches ont des caractères communs : immersion dans les cultures étudiées sur une longue période, approche interdisciplinaire, modélisation graphique, importance des relations amicales pour la compréhension du milieu…). Les inflexions de son itinéraire scientifique reflètent l’évolution des courants de la pensée géographique en un demi-siècle.

      Notes :

      (1) hétérarchique : relatif à un système d’organisation non hiérarchique qui est caractérisé par l’interrelation et la coopération entre les entités qui la composent.

      (2) peuple-monde de la longue durée : concept élaboré par le géographe Michel Bruneau. Voir la synthèse : Michel Bruneau, Peuples-monde de la longue durée. Chinois, Indiens, Iraniens, Grecs, Juifs, Arméniens, CNRS Editions, 2022.

       Michèle Vignaux, juillet 2024

    • sur Lettre ouverte à la commission Européenne – Défendons le programme NGI

      Publié: 29 July 2024, 10:16am CEST par Vincent Picavet

      Cette lettre a été publiée initialement par les petites singularités. Si vous souhaitez signer la lettre, vous pouvez la publier sur votre site et compléter le tableau ici.

      Le CNLL a également publié une tribune, s’alarmant de la suppression des programmes NGI. Oslandia, en tant que membre du CNLL, soutient aussi ce texte.

      Lettre ouverte à la Commission Européenne

      Depuis 2020, les programmes Next Generation Internet (NGI), sous-branche du programme Horizon Europe de la Commission Européenne financent en cascade (via les appels de NLNet) le logiciel libre en Europe. Cette année, à la lecture du brouillon du Programme de Travail de Horizon Europe détaillant les programmes de financement de la commission européenne pour 2025, nous nous apercevons que les programmes Next Generation Internet ne sont plus mentionnés dans le Cluster 4.

      Les programmes NGI ont démontré leur force et leur importance dans le soutien à l’infrastructure logicielle européenne, formant un instrument générique de financement des communs numériques qui doivent être rendus accessibles dans la durée. Nous sommes dans l’incompréhension face à cette transformation, d’autant plus que le fonctionnement de NGI est efficace et économique puisqu’il soutient l’ensemble des projets de logiciel libre des plus petites initiatives aux mieux assises. La diversité de cet écosystème fait la grande force de l’innovation technologique européenne et le maintien de l’initiative NGI pour former un soutien structurel à ces projets logiciels, qui sont au cœur de l’innovation mondiale, permet de garantir la souveraineté d’une infrastructure européenne. Contrairement à la perception courante, les innovations techniques sont issues des communautés de programmeurs européens plutôt que nord-américains, et le plus souvent issues de structures de taille réduite.

      Le Cluster 4 allouait 27.00 millions d’euros au service de :

      • « Human centric Internet aligned with values and principles commonly shared in Europe » ;
      • « A flourishing internet, based on common building blocks created within NGI, that enables better control of our digital life » ;
      • « A structured eco-system of talented contributors driving the creation of new internet commons and the evolution of existing internet common ».

      Au nom de ces enjeux, ce sont plus de 500 projets qui ont reçu un financement NGI0 dans les 5 premières années d’exercice, ainsi que plus de 18 organisations collaborant à faire vivre ces consortia européens.

      NGI contribue à un vaste écosystème puisque la plupart du budget est dévolue au financement de tierces parties par le biais des appels ouverts (open calls). Ils structurent des communs qui recouvrent l’ensemble de l’Internet, du matériel aux applications d’intégration verticale en passant par la virtualisation, les protocoles, les systèmes d’exploitation, les identités électroniques ou la supervision du trafic de données. Ce financement des tierces parties n’est pas renouvelé dans le programme actuel, ce qui laissera de nombreux projets sans ressources adéquates pour la recherche et l’innovation en Europe.

      Par ailleurs, NGI permet des échanges et des collaborations à travers tous les pays de la zone euro et aussi avec ceux des widening countries [1], ce qui est actuellement une réussite tout autant qu’un progrès en cours, comme le fut le programme Erasmus avant nous. NGI0 est aussi une initiative qui participe à l’ouverture et à l’entretien de relation sur un temps plus long que les financements de projets. NGI encourage également à l’implémentation des projets financés par le biais de pilotes, et soutient la collaboration au sein des initiatives, ainsi que l’identification et la réutilisation d’éléments communs au travers des projets, l’interopérabilité notament des systèmes d’identification, et la mise en place de modèles de développement intégrant les autres sources de financements aux différentes échelles en Europe.

      Alors que les États-Unis d’Amérique, la Chine ou la Russie déploient des moyens publics et privés colossaux pour développer des logiciels et infrastructures captant massivement les données des consommateurs, l’Union Européenne ne peut pas se permettre ce renoncement. Les logiciels libres et open source tels que soutenus par les projets NGI depuis 2020 sont, par construction, à l’opposée des potentiels vecteurs d’ingérence étrangère. Ils permettent de conserver localement les données et de favoriser une économie et des savoirs-faire à l’échelle communautaire, tout en permettant à la fois une collaboration internationale. Ceci est d’autant plus indispensable dans le contexte géopolitique que nous connaissons actuellement. L’enjeu de la souveraineté technologique y est prépondérant et le logiciel libre permet d’y répondre sans renier la nécessité d’œuvrer pour la paix et la citoyenneté dans l’ensemble du monde numérique.

      Dans ces perspectives, nous vous demandons urgemment de réclamer la préservation du programme NGI dans le programme de financement 2025.

      [1] Tels que définis par Horizon Europe, les États Membres élargis sont la Bulgarie, la Croatie, Chypre, la République Tchèque, l’Estonie, la Grèce, la Hongrie, la Lettonie, la Lithuanie, Malte, la Pologne, le Portugal, la Roumanie, la Slovaquie et la Slovénie. Les pays associés élargies (sous conditions d’un accord d’association) l’Albanie, l’Arménie, la Bosnie Herzégovine, les Iles Feroé, la Géorgie, le Kosovo, la Moldavie, le Monténégro, le Maroc, la Macédoine du Nord, la Serbie, la Tunisie, la Turquie et l’Ukraine. Les régions élargies d’outre-mer sont : la Guadeloupe, la Guyane Française, la Martinique, La Réunion, Mayotte, Saint-Martin, Les Açores, Madère, les Iles Canaries.

       Photo de Maximalfocus sur Unsplash

       

    • sur GéoDataDays 2024

      Publié: 25 July 2024, 6:49am CEST par Caroline Chanlon

      Oslandia est cette année encore sponsor des GéoDataDays qui se tiendront les 19 et 20 septembre 2024 à Nantes ! Retrouvez-nous sur notre stand pour découvrir nos solutions et notamment Piero, l’application Web 3D SIG/BIM open source et sur l’espace Démo pour un atelier Métropoles ? OpenSource !

      Venez discuter des dernières avancées de l’open source Geospatial, voir les projets que nous avons réalisés, et découvrir comment nous pouvons répondre à vos problématiques.

      Vous y croiserez notamment Bertrand Parpoil, Vincent Picavet, Julien Moura et Vincent Bré !

      Inscription : [https:]]

    • sur [1’Tech by Oslandia] open data

      Publié: 23 July 2024, 6:55am CEST par Caroline Chanlon

      Dans cette minute Tech, nos collaborateurs vous proposent d’expliquer une technologie, une méthodologie, un concept. Après open source, LiDAR, webGL, réversibilité, TCO et même télétravail, on a brainstormé sur GitLab pour donner notre meilleure définition de l’open data

      L’open data ( « Donnée ouverte » ), est la donnée librement accessible. Elle concerne notamment toutes les données publiques accessibles aux usagers : citoyens, entreprises, collectivités, … Elles peuvent être d’origine privée mais sont la plupart du temps mises à disposition par une collectivité ou un établissement public.

      L’Open Knowledge Foundation en 2005 donnent les critères essentiels de l’open data : la disponibilité, la réutilisation et la distribution, et la participation universelle. En France, il existe un cadre légal obligeant à l’ouverture de certaines données.
      Ces ressources ouvertes accessibles dans des catalogues de données, permettent de construire des outils comme des observatoires pour lesquels la représentation cartographique est utilisée.

      Oslandia a travaillé sur de nombreux projets mobilisant de l’open data, c’est le cas de Terristory®, un outil partenarial d’aide au pilotage de la transition des territoires ou sur des projets avec Bruxelles Environnement. Nous avons également une connaissance approfondie de la donnée OpenStreetMap.

      L’open data permet d’alimenter ces outils numériques avec de la donnée de qualité permettant ainsi des services de qualité.

      OpenData et OpenSource forment le combo libre et efficient !

    • sur [Équipe Oslandia] Jean-Marie, développeur C++ / Python

      Publié: 18 July 2024, 7:30am CEST par Caroline Chanlon

      Jean-Marie a toujours aimé l’électronique et tout ce qui touche au traitement du signal. Il rejoint l’INSA Rennes, une école d’ingénieur généraliste en spécialité ESC – Electronique et Systèmes de Communication (aujourd’hui E&T) sur les problématiques télécommunications.

      Il réalise son stage de fin d’étude chez Silicom à Rennes sur le sujet « Modélisation de systèmes de communication » sous Matlab avant d’être embauché par la même entreprise mais pour une toute autre mission …le développement d’une application informatique de simulation de réseaux télécom pour la DGA avec QT en C++ !

      « Je ne connaissais pas trop l’informatique, quelques notions pendant mes études, mais j’aimais bien, ça me plaisait de pouvoir me lancer là dedans. J’ai acquis des connaissances en pratiquant, c’est comme ça qu’on apprend ! »

      Ensuite, Jean-Marie saisit l’opportunité de travailler sur le passage au tout numérique via la TNT. « J’ai travaillé pendant 2 ans et demi au CSA, j’ai réalisé des études sur la planification de fréquences, étudié les couvertures des émetteurs TNT. C’était une super expérience, j’ai travaillé sur un projet qui a impacté les français au quotidien ! »

      De retour à Rennes, il reprend le développement en C++ avec QT, notamment pour un projet d’analyse de signaux sismiques du CEA et découvre QGIS. Une nouvelle compétence qu’il mobilise pour la DGA et le développement d’un outil basé sur QGIS pour l’affichage de données relatives à l’aide à la planification de missions satellites.

      « 14 ans chez Silicom, il était temps de passer à autre chose »

      Jean-Marie rejoint Oslandia en novembre 2021 en tant que développeur C++ / Python où il réalise des missions de développement et DevOps, notamment pour Viamichelin sur la refonte du calcul d’itinéraire de l’outil en ligne ou pour l’IGN pour la mise en place du calcul d’itinéraire sur la nouvelle Géoplateforme.

      Projet emblématique

      Jean-Marie a produit 80% du code d’OpenLog, un outil de visualisation de données de sondage open source porté par Apeiron (filiale d’Oslandia).

      « Ce projet m’a permis de mobiliser mes connaissances sur la représentation de données »

      Technologies de prédilection

      Python et C++

      Ta philosophie

      Le partage ! Ce qu’on produit peut être utilisé par d’autres, nous partageons nos connaissances et notre travail !

      Oslandia en 1 mot

      Ouverture par rapport à l’open source et dans le sens où tout est transparent dans l’entreprise, tout le monde peut donner son avis, les décisions sont prises collectivement.

    • sur Une vision multiscalaire des rapports de force politiques

      Publié: 16 July 2024, 10:27am CEST par Nicolas Lambert

      Camarades cartographes, nous sortons d’une séquence politique inédite. Le pays semble fracturé en trois blocs avec une extrême droite au plus haut. Mais comment rendre compte cartographiquement des clivages géographiques qui fracturent le pays ?

      Dans un billet réalisé avec Antoine Beroud et Ronan Ysebaert pour le journal l’Humanité (voir), nous proposons une série de cartes avec des représentations continues à plusieurs échelles. La méthode d’interpolation spatiale utilisée ici est connue sous le nom de potentiel, de potentiel gravitationnel ou d’accessibilité gravitationnelle. Le concept a été développé dans les années 1940 par le physicien John Q. Stewart à partir d’une analogie avec le modèle gravitationnel. Ce potentiel est défini comme un stock – un nombre de voix – pondéré par une distance définie ici par une fonction gaussienne (courbe en cloche). En faisant varier la portée de cette fonction, l’algorithme permet de dessiner des cartes plus ou moins généralisées pour montrer les grandes structures spatiales selon différentes échelles d’analyse, en faisant abstraction des irrégularités du maillage sous-jacent.

      In fine, la méthode permet de rendre compte avec différents filtres d’observation, des lignes de force des différents blocs politiques qui structurent géographiquement le pays.

      Bloc de gauche

      Bloc de droite

      Bloc d’extrême droite

      Des comparaisons deux à deux sont également possibles.

      Article initial et explications méthodologiques : [https:]]

      Code source : [https:]] & [https:]]

      Nicolas Lambert

      Ingénieur de recherche CNRS en sciences de l'information géographique. Membre de l'UMS RIATE et du réseau MIGREUROP / CNRS research engineer in geographical information sciences. Member of UMS RIATE and the MIGREUROP network.

      More Posts

      Follow Me:
      Twitter

    • sur TerriSTORY® – Une histoire de territoires OpenSource

      Publié: 16 July 2024, 7:04am CEST par Sylvain Beorchia

      Lorsque nous avons commencé à travailler sur Terristory en 2018, c’était alors un POC (Proof Of Concept) commandé par AURA-EE,  Auvergne Rhône-Alpes Énergie Environnement. Le premier sprint devait convaincre de la faisabilité et projeter les ambitions de l’association. 6 ans plus tard, la plateforme devenue publique est un projet OpenSource maintenu de façon autonome directement par AURA-EE.

      Le développement de la plateforme s’est déroulé sur plusieurs années. Au départ Oslandia était le prestataire chargé de réaliser et conseiller l’AURA-EE sur le projet, mais il était prévu aussi de former petit à petit les équipes côté association et de transmettre le savoir pour un jour permettre une totale autonomie. En parallèle, il y avait une volonté forte de la part d’Oslandia d’arriver à terme à une ouverture du code source de l’application, ce qui était également une volonté d’AURA-EE dès le départ.

      Publier le code source d’une application (ici un site web) n’est pas forcément une tâche difficile en apparence.  On pourrait penser qu’il s’agit juste de créer un répertoire gitlab et d’y déposer le code. Dans les faits, c’est ce qui se passe. Néanmoins, une bonne préparation en amont est nécessaire si on souhaite une ouverture de qualité.

      De nombreuses questions se bousculent alors

      Quand doit-on publier ? Est-ce que la documentation est prête ? Dois-je traduire en anglais ? A-t-on résolu tous les bugs critiques ? Comment va se passer la publicité ? Y-a-t il un formalisme à respecter ? Les aspects juridiques sont-ils couverts ? Est-on prêt à recevoir les retours de la communauté ?

      Les étapes

      La première chose à faire était de choisir la licence. Dans le cas de Terristory c’est la GNU Affero (ou AGPL) version 3 qui a été sélectionnée, après étude des tenants et des aboutissants. Ici il s’agit d’un outil serveur, sur lequel AURA-EE et les différents partenaires impliqués au sein d’un consortium national voulaient que les modifications faites par les utilisateurs soient reversées.

      Un premier travail de documentation et de structuration du code a été entrepris par AURA-EE. Avoir une bonne documentation, des guidelines sont essentiels pour s’assurer que toute personne intéressée par la réutilisation ou par la contribution au code puisse aisément installer, tester et ajouter de nouvelles fonctionnalités.

      Le code de Terristory a également connu de nombreuses phases de refactoring, c’est à dire de réécriture de certaines parties parce qu’obsolète, pas assez efficaces ou suite à des changements de librairies utilisées. Outre les évolutions fonctionnelle d’une telle application, le refactoring constitue une partie importante de la vie du logiciel. D’autant plus sur les applications Web où les avancées technologiques sont rapides. Il faut maintenir le code, et suivre l’évolution des librairies sous-jacentes si on veut pouvoir faire évoluer le site plus facilement et par un maximum de personnes. Côté Oslandia, nous anticipons au mieux ces phases de développement pour éviter le jour J de devoir faire une revue totale et potentiellement complexe du code juste avant la publication.

      Oslandia a accompagné AURA-EE sur toutes ces années, et a réussi à lui transmettre la culture de l’OpenSource, aussi bien techniquement que dans les méthodes de travail. Ainsi, les collaborateurs d’AURA-EE sont vite devenus des utilisateurs experts de Gitlab, des utilisateurs experts de la solution, puis des développeurs de l’application, pour enfin procéder eux-même à la libération publique du code. En tant qu’ancien développeur principal de l’application pendant plusieurs années, je suis personnellement assez fier du travail accompli et de la manière dont les choses se sont déroulées.

      [Témoignage]

      Pierrick Yalamas, Directeur intelligence territoriale et observatoires à Auvergne-Rhône-Alpes Énergie Environnement :
      « Oslandia a su nous accompagner durant les premières années du projet TerriSTORY® : des premiers développements à l’appui juridique (choix de la licence) pour l’ouverture du code. L’équipe est maintenant complètement autonome. L’ouverture du code début 2023 a déjà donné lieu (mi-2024) à plusieurs réutilisations, qui permettent d’enrichir les fonctionnalités de TerriSTORY®. »

      Notre vision

      Le projet TerriSTORY® et la manière dont il s’est déroulé correspond à la vision d’Oslandia de la relation client : notre objectif est de fournir les outils et les méthodes permettant aux organisations que nous accompagnons d’être le plus efficace et le plus autonome possible. Et ce, sur tous les aspects d’un projet logiciel : technique, mais aussi organisationnel, juridique, sur l’infrastructure de développement et les process mis en place. Voir des solutions que nous avons ébauchées prendre leur propre autonomie, dans le respect de l’esprit du logiciel libre est une satisfaction et une fierté pour toute l’équipe, et nous sommes reconnaissants à l’AURA-EE de nous avoir fait confiance pour cela.

    • sur Premiers MNT LidarHD

      Publié: 14 July 2024, 6:55pm CEST par Simon Gascoin
      Pièce jointe: [télécharger]

      L’IGN communique actuellement sur la mise à disposition des premiers MNT dérivés des nuages de points LiDAR HD.

      [Thread LiDAR HD ?] Vous les attendiez ? Les premiers modèles numériques #LiDARHD sont maintenant disponibles et accessibles à tous en #opendata ?

      ? [https:]]

      ? La Charente-Maritime (bloc FK), le Nord (KA) et le Pas-de-Calais (JA) sont les premiers… pic.twitter.com/1UFOZabImE

      — IGN France (@IGNFrance) July 10, 2024

      A mon avis, cet exemple est mal choisi puisqu’un MNT de la citadelle de Gravelines de qualité équivalente  était déjà disponible dans le RGE ALTI® 1m en libre accès depuis le 1er janvier 2021. Sur ce secteur les métadonnées du RGE ALTI® indiquent que la source est un LiDAR de densité d’acquisition à 1 points au m². On pouvait donc déjà voir ces fortifications dans mon interface de visualisation du RGEALTI.

      Comparaison des MNT RGE ALTI® 1m et LiDAR HD sur le fort de Gravelines

      En effet, le RGE ALTI® est un composite de plusieurs sources de données… La qualité du produit final est très variable ! En l’occurrence Gravelines était déjà couvert en lidar comme le reste du littoral.

      Sources du RGE ALTI® (oui sans la légende) : corrélation (en général), lidar (littoral, rivières et villes) ou radar (montagnes). Pour en savoir plus consulter l’annexe B de ce document [https:]]

      Pour le littoral, le nouveau MNT LiDAR HD présente un intérêt plus marquant là où la surface terrestre a changé récemment. On peut ainsi comparer les MNT RGE ALTI® et LiDAR HD pour observer l’évolution des dunes de la Slack près de Wimereux. Malheureusement je ne connais pas les dates d’acquisition de ces deux produits.

      document.createElement('video'); [https:]]

      Mais le véritable intérêt du MNT LiDAR HD se situe plutôt dans les zones où la source des données pour construire le RGE ALTI® n’était pas du lidar. Par exemple dans le département du Pas-de-Calais se trouve la plus grande carrière de France, les Carrières du Boulonnais.

      Comparaison des MNT RGE ALTI® 1m et LiDAR HD sur les Carrières du Boulonnais

      Vivement la mise à disposition des autres régions de France !

      Photo en-tête : Zoom sur la partie centrale de la carrière de Ferques (Pas de Calais) par Pierre Thomas. Source : Planet Terre [https:]]

    • sur Crue du Vénéon : que nous apprennent les images satellites ?

      Publié: 13 July 2024, 2:27am CEST par Simon Gascoin
      Pièce jointe: [télécharger]

      Le 21 juin 2024, la crue torrentielle du Vénéon et de son affluent le torrent des Étançons a dévasté le hameau de la Bérarde dans le massif des Écrins. Cette crue a résulté des fortes pluies et de la fonte de la neige, et a peut-être été aggravée par la vidange d’un petit lac supra-glaciaire.

      L’année en cours est particulièrement excédentaire en neige dans les Alpes, en particulier à haute altitude. Le stock de neige dans le bassin du Rhône au printemps 2024 est bien supérieur à la normale des trente dernière années mais proche de celle des années 1961-1990. Or une telle crue ne s’est pas produite depuis la moitié du 20e siècle au moins à la Bérarde. Que s’est-il passé ?

      Image

      Le secteur est bien instrumenté avec une station hydrométrique sur le Vénéon à 3 km en aval de la Bérarde (1581 m) et une station météorologique située à 6 km de route près du bourg de Saint-Christophe-en-Oisans (1564 m).

      Séries horaires de précipitations et de débit entre le 19 juin 00h et le 21 juin 18h TU.

      Le cumul de précipitation mesuré entre le 19 et le 21 juin est considérable, précisément 100 mm en 34 heures. J’ai calculé le bassin versant du Vénéon à cette station hydrométrique Saint-Christophe-en-Oisans à partir du modèle numérique de terrain RGE ALTI® 5m fourni par l’IGN. Sa superficie est de 104 km², le volume d’eau reçu pendant ces 34 heures est donc 10 millions de mètres cube, soit 84 m³/s. On constate que le débit de crue s’approchait de 80 m³/s avant que l’enregistrement ne cesse. Il est probable que ces 100 mm de pluie intense expliquent l’essentiel de la crue. Malheureusement la série de débit est interrompue et à ce jour il est impossible de fermer le bilan hydrologique. Peut-on en savoir plus sur la contribution du manteau neigeux à partir des images satellitaires ?

      Bassin versant du Vénéon à la station hydrométrique de St-Christophe-en-Oisans (marqueur rouge) et la station météorologique associée (marqueur bleu).

      Ce bassin draine des zones de haute montagne dont l’antécime de la Barre des Ecrins qui culmine à plus de 4000 m d’altitude. Les fluctuations diurnes de débit indiquent que la fonte des neiges avait commencé à alimenter le Vénéon depuis le début du mois de juin (la taux de fonte est en grande partie contrôlé par l’énergie solaire donc il suit le rythme des journées).

      Série journalière des précipitations et série horaire du débit du Vénéon à St-Christophe-en-Oisans. La série de débit est interrompue à partir du 21 juin sans doute à cause des dégâts causés par la crue.

      Les images Sentinel-2 avant et après la crue montrent que le manteau neigeux a bien réduit entre les deux dates car sa limite basse remonte en altitude. Un autre détail intéressant est le changement de couleur : les zones enneigées blanches de haute altitude ont disparu, ce qui suggère que la fonte a eu lieu jusqu’aux plus hauts sommets du bassin versant. En effet, les poussières sahariennes ont été déposées à la fin du mois de mars 2024.

      [https:]]

       

      On peut analyser l’évolution de l’enneigement à partir des cartes de neige Theia ou Copernicus. Voici par exemple celle du 2 juillet 2024.

      Une façon de résumer l’enneigement et de s’affranchir des nuages est de calculer la « ligne de neige », c’est-à-dire l’altitude qui délimite en moyenne la partie basse de l’enneigement. Pour la calculer j’utilise l’algorithme de Kraj?í et al. (2014) qui minimise la somme de la surface enneigée sous la ligne de neige et de la surface non-enneigée au dessus de la ligne de neige. Dans cet exemple on obtient 2740 m.

      Les cartes de neige sont disponibles depuis 2015 (Landsat 8, Sentinel-2). La série complète sur le bassin versant du Vénéon à St Christophe permet de voir la remontée de la ligne de neige entre avril (01/04 = jour 91) et août (01/08 = jour 213).

      L’année 2024 se distingue par une limite d’enneigement plus basse que les huit années précédentes.

      Si on superpose cette ligne de neige avec l’isotherme 0°C donnée par ERA5 on constate que l’intégralité du bassin versant était sous l’iso 0°C quelques jours avant la crue, ce qui suggère (1) qu’il a plu à très haute altitude (2) qu’il y a eu un apport de fonte, d’autant que le manteau neigeux avait déjà été bien réchauffé au début du mois de juin.

      Des images satellites à très haute résolution (Pléiades Neo) ont été acquises dans le cadre de la CIEST2. Ces images permettent de voir les traces des pluies abondantes sur la neige lessivée et des avalanches de neige humide autour du glacier de Bonne Pierre.

      Image satellite du manteau neigeux sur le glacier de Bonne Pierre (Pléiades Neo 04 juillet 2024, composition colorée)

       

      Image satellite du manteau neigeux sur le glacier de Bonne Pierre (Pléiades Neo 04 juillet 2024, panchromatique)

      En conclusion, les données disponibles montrent cette crue est une crue de pluie sur neige (Rain-On-Snow). On trouve tous les ingrédients favorables à ce type de crue :

      • une pluie intense ;
      • un manteau neigeux particulièrement étendu avec une ligne de neige basse pour la saison ;
      • un manteau neigeux déjà en régime de fonte ou proche (isothermal, ripe snowpack) ;
      • un apport de chaleur pendant l’évènement, ici une atmosphère chaude et humide qui a dû émettre de forte quantités de rayonnement thermique.

      Les taux de fonte peuvent dépasser 20 mm/jour dans les zones de montagne. Cet apport de fonte doit être pondéré par la fraction enneigée du bassin. Le 17 juin 60% de la surface du bassin était enneigée donc on peut estimer une contribution potentiellement de l’ordre de 15 mm/jour pendant la crue à comparer aux 100 mm de pluie mesurés à St-Christophe pendant l’épisode. Donc le manteau neigeux a pu augmenter significativement l’apport d’eau liquide dans ce bassin versant. Néanmoins, d’autres facteurs aggravants sont à considérer :

      • une augmentation du taux de précipitation par effet orographique : les précipitations mesurés à St-Christophe à 1564 m sont probablement sous-estimées à l’échelle du bassin versant de la Bérarde qui s’étend jusqu’à 4086 m (Pic Lory) ;
      • la saturation des sols et des nappes d’eau souterraines (y compris le thermokarst glaciaire) suite à un printemps bien arrosé et une fonte des neiges en cours depuis plusieurs semaines.

      Ces évènements Rain-On-Snow sont bien étudiés aux USA où ils sont connus pour déclencher des crues dévastatrices (comme le débordement du lac Oroville en Californie). Plusieurs études montrent que le changement climatique augmente le risque de crue Rain-On-Snow en haute montagne [1, 2].

      Les images Pléiades Neo étant des prises stéréo, elles devraient également permettre aux géomorphologues de calculer les volume de sédiments charriés lors de cette crue exceptionnelle.

      Mise à jour 15/07/2024. Le SYMBHI nous apprend que « Le débit du Vénéon a atteint 200 m3/s (source EDF) à plan du Lac (St Christophe en Oisans) ». Cela ferait une lame d’eau horaire de 7 mm, ce qui reste compatible avec les mesures du pluviomètres de St Christophe (on observe 3h avec des taux supérieurs à 8 mm/h).

    • sur Exposition “Cartes et cartographie du bas-Limousin et de la Corrèze”, Tulle, 8 juillet-31 décembre 2024

      Publié: 12 July 2024, 12:09pm CEST par Catherine Hofmann
      Exposition aux Archives départementales de Corrèze, 4 rue du Touron à Tulle, 8 juillet-31 décembre 2024

        Catalogue d’exposition : Cartes et cartographie du Bas-Limousin et de la Corrèze, d’une province méconnue aux contours d’un département, par Julien MENDES, sous la dir. de Justine BERLIÈRE, Tulle, 2024, 148 p.

      Fruit d’un patient et minutieux travail, cette exposition des Archives départementales de la Corrèze retrace l’histoire de la représentation géographique d’un territoire particulièrement important dans l’histoire de la cartographie française qui s’y illustra dès le XVIsiècle. Elle évoque ainsi l’histoire de la cartographie à la lueur de l’exemple corrézien.

      Au fil des documents présentés et des pages du catalogue qui accompagne l’exposition, on voit peu à peu se dessiner un ensemble, le Bas-Limousin, constitué de diverses strates de seigneuries, juridictions, paroisses… La Révolution reconnaît ensuite son identité propre en créant le département de la Corrèze, dont le découpage devait permettre d’accéder au chef-lieu en une journée de cheval.

      Il faut se plonger dans la lecture de ce catalogue richement illustré, qui invite à voyager dans le temps, depuis les premières représentations cartographiques du Limousin à la fin du Moyen Âge jusqu’aux Systèmes d’information géographique actuels, en passant par la carte de Cassini et celle de l’état-major aux XVIIIe et XIXe siècles.

      Autant de supports, conservés dans différents dépôts d’archives et bibliothèques, qui sont un régal pour les yeux et font voir sous un jour nouveau les contours de ce beau département et l’évolution de la cartographie.

    • sur Fin de la phase d’acquisitions d’images de VENµS

      Publié: 12 July 2024, 9:52am CEST par Olivier Hagolle

       =>

      C’est avec une certaine tristesse mais aussi beaucoup de fierté que je vous rappelle que la phase opérationnelle de VENµS se terminera fin juillet après 7 ans de bon travail. La phase d’acquisition actuelle (VM5) s’arrêtera le 12 juillet. Les semaines restantes seront consacrées à quelques expériences techniques (les acquisitions au-dessus d’Israël se poursuivront jusqu’à fin juillet), puis, nos collègues israéliens videront les réservoirs en abaissant l’orbite, « passiveront » le satellite, puis laisseront les hautes couches de l’atmosphère réduire sa vitesse et abaisser son altitude avant de brûler dans l’atmosphère dans quelques années.

      Les agences spatiales de France (CNES) et d’Israêl (ISA) ont lancé le micro-satellite VENµS en août 2017, et pour un micro-satellite, il a eu une vie assez particulière ! VENµS a d’abord été injecté en orbite à 720 km d’altitude. Il y est resté 3 ans (phase 1 de la mission VENµS, VM1), puis son orbite a été abaissée à 400 km (VM2), il y a été maintenu quelques mois (VM3), avant d’être remonté (VM4) à 560 km (VM5) où il est resté deux ans et demi.

      VENµS avait en effet deux missions :

      • tester un moteur à propulsion ionique et démontrer qu’il était capable de changer d’orbite et même de maintenir le satellite à 400 km d’altitude et de compenser le freinage atmosphérique dû aux couches les plus élevées de l’atmosphère terrestre
      • prendre des images répétitives de sites sélectionnés à haute résolution (4 à 5 m), avec des revisites fréquentes (1 ou 2 jours), avec 12 bandes spectrales fines, et un instrument de haute qualité.

      Les deux phases VM1 et VM5 ont été utilisées pour observer environ 100 sites (différents sites pour chaque phase), avec une revisite de deux jours pendant VM1, et d’un jour pour certains sites pendant VM5. Toutes les images ont été traitées au niveau 1C et au niveau 2A. En ce qui concerne VM5, un retraitement complet sera effectué fin 2024 afin d’avoir un jeu de données cohérent, avec les derniers paramètres de correction géométrique et radiométrique mis à jour, et les mêmes versions des chaines de traitement, pendant toute la durée de vie du VENµS. le même retraitement avait été effectué après la fin de VM1 en 2022.

      Tableau de bord actuel du site web de distribution du CNES, avec le nombre de produits disponibles. Seules les images avec une proportion suffisante de pixels sans nuages sont fournies, et les statistiques ne tiennent pas compte des produits sur Israël distribués par l’université Ben Gurion du Neguev.

      Bien que l’impact scientifique de VENµS n’ait pas été à la hauteur des espérances initiales en raison de son lancement tardif (VENµS devait démontrer la puissance des observations optiques multitemporelles, mais a finalement été lancé après Sentinel-2), il nous a néanmoins incités à préparer intensivement l’arrivée des observations de Sentinel-2. Le développement de nombreuses méthodes telles que celles des processeurs MAJA, WASP,et Iota2  ont été motivées par l’existence du projet VENµS.

      De plus, les données acquises par VENµS vont rester disponibles [https:] et nous espérons que sa combinaison unique de résolution (4m) et de revisite (1 jour) avec 12 bandes, sera encore utile pour plusieurs années à venir. Notre petit satellite est de plus en plus connu dans la communauté de l’apprentissage profond, puisqu’il a été utilisé pour construire le jeu de données Sen2VENµS afin d’apprendre à améliorer la résolution de Sentinel-2, ou pour tester les méthodes de fusion de données entre Sentinel-2 et VENµS.

      Par ce billet, nous souhaitons remercier toutes les équipes en France et en Israël qui ont contribué à la décision, au financement, à la construction, à l’exploitation et au traitement des données de ce satellite. La liste des personnes ayant apporté une contribution significative serait trop longue (des centaines), et le risque d’oublier quelqu’un serait trop élevé, aussi nous ne citerons que Gerard Dedieu and Arnon Karnieli, les PI français et israélien initiaux (Arnon est toujours PI), qui ont consacré de nombreuses années de leur carrière à la réussite de ce petit satellite.

       

      Rédigé par Olivier Hagolle (CNES/CESBIO) avec l’aide d’Arnon Karnieli (BGU)

      PS : La fin du VM5 a été une période difficile avec un satellite vieillissant qui a largement dépassé sa durée de vie nominale de 3 ans avec un objectif fixé à 5 ans. Une proportion non négligeable des tentatives d’acquisition a échoué, et certains sites n’ont pas produit les séries temporelles attendues. Nous nous excusons si la collecte de données n’a pas été à la hauteur de vos attentes. Cependant, notre collection de données comprend plus de 82 000 produits, 56 000 pour VM1 et 26 000 pour VM5, ce qui nous permet de disposer de nombreuses et belles séries de produits prêts à l’emploi (Analysis Ready Data).

       

    • sur The end of VENµS imaging phase

      Publié: 11 July 2024, 12:05pm CEST par Olivier Hagolle

      => 

      It is with some sadness but also a lot of pride that I remind you that the VENµS operational phase will end at the end of July after 7 years of good work. The current acquisition phase (VM5) will stop on the 12th of July. The remaining weeks will be devoted to a few technical experiments (acquisitions over Israel will go on until end of July), and then, our Israeli colleagues will empty the tanks by lowering the orbit, passivate the satellite, and then let the higher layers of the atmosphere reduce its speed and lower its altitude before burning in the atmosphere in a few years.

      The French and Israeli space agencies (CNES and ISA) launched the VENµS micro-satellite in August 2017, and for a micro-satellite, it has had quite a special life ! VENµS was first injected into orbit at 720 km altitude. It stayed there for 3 years (VENµS Mission 1 phase, VM1), then its orbit was lowered to 400 km (VM2), it was maintained there for a few months (VM3),  before being raised again (VM4) to 560 km (VM5) where it stayed for two and a half years.

      VENµS indeed had two missions :

      • test a ionic propulsion engine and verify it was able to change orbits and even maintain the satellite at 400 km altitude with all the atmospheric drag due to the highest levels of the earth atmosphere
      • take repetitive images of selected sites at a high resolution (4 to 5 m), frequent revisit (1 or 2 days), with 12 thin spectral bands, and a high-quality instrument

      The two phases VM1 and VM5 were used to observe around 100 sites (different sites for each phase), with a revisit of two days during VM1, and one day for some sites during VM5. All the images have been processed to Level 1C and Level 2A. Regarding VM5, a full reprocessing will be done at the end of 2024 to have a consistent data set with the latest updated geometric and radiometric correction parameters, and the same updated versions of software during the whole life of VENµS. The same reprocessing had been done after the end of VM1 in 2022.

      Current dashboard of CNES distribution website, with the number of available products. Only images with a sufficient proportion of cloud free pixels are produced, and the statistics do not account for the products over Israel distributed at BGU.

      Although VENµS’ scientific impact was not as high as expected due to its late launch (VENµS was meant to demonstrate the power of multi-temporal optical observations, but was finally launched after Sentinel-2), it nevertheless incited us to prepare the arrival of Sentinel-2 observations intensively. The development of many methods such as those in MAJA, WASP, Iota2 or LIS processors were motivated by the existence of the VENµS project.

      Moreover, the data acquired by VENµS are here to stay ( [https:]] ), and we hope its unique combination of resolution (4m) and revisit (1 day) with 12 bands, will still be useful for several years to come. Our little satellite is getting very well known in the deep learning community, as it has been used to build the Sen2VENµS data set for learning to improve the resolution of Sentinel-2, or to test data fusion methods between Sentinel-2 and VENµS.

      With this post, we would like to thank all the teams in France and Israel who contributed to the decision, funding, building, exploitation and data processing of this satellite. The list of persons who brought a meaningful contribution would be too long (hundreds), and the risk of forgetting someone will to too high, so we will only cite Gerard Dedieu and Arnon Karnieli, the initial French and Israeli PIs (Arnon is still PI), who devoted many years of their career to the success of this little satellite.

      Written by VENµS PI: Olivier Hagolle (CNES/CESBIO) with the help of Arnon Karnieli (BGU)

      PS : The end of VM5 was a difficult period with an aging satellite that was well over its nominal life of 3 tears with a goal set to 5 years. A non-negligible proportion of the attempted acquisitions failed, and some sites did not yield the expected time series. We apologize if the data collection was not as good as your expectations. However, our data collection includes more than 82,000 products, 56,000 for VM1, and 26,000 for VM5, bringing much analysis-ready data

       

    • sur Les lignes de force du vote RN en 2024 : une cartographie lissée avec la grille H3

      Publié: 11 July 2024, 3:44am CEST par Éric Mauvière

      Les résultats des dernières élections françaises sont maintenant disponibles à un niveau fin, à la commune et même jusqu’au bureau de vote. Mais comment produire une cartographie lisible et synthétique à partir de données si détaillées ?

      Ce travail récent de Karim Douïeb, largement repris, illustre bien le dilemme : il dénonce le caractère trompeur de la carte (choroplèthe) de gauche et propose à la place la variante (à symboles) de droite.

      Les cartes choroplèthes sont faciles à lire avec leur coloration continue de tout le territoire. Mais l’œil voit seulement des surfaces, il ne peut faire le tri entre les territoires plus peuplés et les moins peuplés.

      Les cartes à pastilles proportionnelles rendent mieux compte des populations en présence, mais les petits ronds se voient peu, ou alors coagulent en amas artificiels là où le maillage communal est très serré (par exemple dans les Hautes-Pyrénées, voisines des Landes où c’est l’inverse). Les cartogrammes qui distordent la géographie pour prévenir les superpositions accentuent souvent ces artefacts.

      Une autre voie respecte la géographie, préserve la continuité de l’image et prend en compte les différences de population : celle où le résultat d’un candidat (part en %) est lissé par disques mobiles.

      Les spécialistes des études locales la connaissent depuis longtemps – je la pratique depuis 35 ans. Certes, les calculs requis par le lissage en limitent l’usage, même avec des librairies spécialisées. Il est toutefois possible en 2024 de construire simplement de solides cartes lissées, sans logiciel lourd.

      Voyons comment faire avec 3 petits bijoux d’efficacité : un moteur SQL autonome (DBeaver/DuckDB), une grille hexagonale (H3) et un outil de cartographie web (Mapshaper).

      A - Lissage appliqué aux résultats communaux des européennes de 2024

      Comparons ci-dessous les résultats bruts des élections européennes et la représentation lissée par disque mobile. Le lissage améliore spectaculairement la lisibilité de l’image.

      Européennes 2024 – Part des votes RN et Reconquête (%)

      Lissé Brut

      Les grandes agglomérations éloignent le vote RNR, mais cet effet est moins visible dans un grand Nord-Est ou sur le littoral méditerranéen. Quelques contrastes locaux sont frappants, par exemple entre le Lot et Tarn-et-Garonne, ou l’agglomération bordelaise et sa frange nord.
      Note : les petits points gris signalent les capitales régionales.

      Comme le pinceau de l’archéologue dépoussière un bas-relief, ou la restauratrice révèle sous les vernis et les taches le tableau originel, le lissage dégage les lignes de force qui traversent les territoires – et bien souvent celles qui résistent au temps et aux soubresauts politiques.

      Je vais décrire la méthode, car en saisir le principe, c’est mieux comprendre les limites et les avantages de cette technique. Le lissage n’est pas une moyenne locale des valeurs communales (ici la part de telle liste). Il repose sur une agrégation de deux grandeurs que l’on va ensuite diviser pour recalculer le taux « ambiant ». Cette agrégation se fait sur une étendue plus ou moins large, le rayon du disque de lissage.

      En un endroit donné, on additionne par exemple le nombre de votants RNR au sein d’un rayon de 20 km, et l’on procède de même pour l’ensemble des votants ;  le nouveau taux se calcule sur ces deux grandeurs étendues. Ainsi, d’une commune à sa voisine, les taux ambiants vont faiblement varier. Les aléas locaux sont lissés, et les territoires localement plus peuplés contribuent davantage à la représentation.

      B - La méthode en images

      Considérons les deux cartographies traditionnelles du résultat d’une liste, dans notre exemple la part du vote RN et Reconquête (en abrégé, RNR). Sur une carte zoomée, la technique des ronds coloriés a bien des avantages, car les symboles sont tous visibles, leur couleur aussi. Ce mode présente à la fois une grandeur absolue (les votants), et la part du vote RNR. 

      Ronds Choro

      Comme on le constate dans cette vue de la périphérie toulousaine, les communes sont de taille fort variable. Le découpage communal influence fortement la morphologie de l’image. C’est la raison pour laquelle certains politiques s’échinent à redéfinir les maillages électoraux, pour tourner l’addition locale des votes à leur avantage.

      Passer d’un maillage hétérogène à une grille régulière donnera une assise plus solide à la méthode de lissage.

      La grille H3, conçue d’abord pour les besoins d’Uber, maille l’ensemble de la planète avec des hexagones. En voici une représentation au niveau de précision 7 (sur une échelle allant de 0 à 15). 

      38 hexagones de niveau 7 recouvrent la commune de Toulouse. Une première idée consiste à répartir le total des votants à Toulouse de façon égale sur ces 38 hexagones. Je pourrais affiner cette répartition sur les hexagones frontières, par un prorata de la surface intersectée. Mais ce serait me compliquer la vie inutilement, car en définitive, je vais lisser !

      Toulouse et les hexagones H3

      Grille H3 de niveau 7, intersectant Toulouse Votants à Toulouse répartis fictivement en 38 points

      Les hexagones sur les frontières communales vont ainsi recevoir des votants venus de deux, parfois trois communes limitrophes. Cela produit déjà, de fait, un premier microlissage. 

      En voici le résultat cartographié, après recalcul du taux pour chaque hexagone.

      H3 Brut

      Le principe du lissage par fenêtre mobile est toutefois bien plus puissant. H3 permet très facilement (c’est aussi une librairie avec quantité de fonctions utilitaires) de lister les hexagones voisins, avec un pas variable – de 1 à 10 dans cet exemple :

      Avec ce rayon de lissage de 10 (soit un peu plus de 20 km), je m’emploie à additionner, en un centre donné, les votants et les votants RNR sur l’ensemble de ce disque. Je prends garde à donner de moins en moins d’importance aux hexagones qui s’éloignent, par une pondération inverse de la distance au centre.

      Mon lissage intègre ainsi deux paramètres d’ajustement : le rayon du disque mobile (en fait un grand hexagone mobile), et la fonction de pondération (quelle importance j’accorde aux hexagones les plus éloignés pour calculer le taux ambiant).

      Voici deux cartes, avec des rayons de lissage différents : 5 (soit environ 12 km) et 10 (20-25 km).

      ++ + C - Comment lisser, en pratique ?

      Je conduis les calculs en SQL, avec le moteur DuckDB et son extension H3, dans l’interface DBeaver. DBeaver donne un premier aperçu du résultat des requêtes spatiales, ce qui s’avère très pratique.

      Pour la cartographie thématique, Mapshaper, utilisable en ligne, dessine et colorie avec une vélocité remarquable. 

      Cette démarche procède d’un principe pédagogique auquel je suis attaché : ouvrir des portes pour le plus grand nombre, privilégier les outils les plus simples, les plus accessibles, les mieux conçus. 

      Commençons par récupérer les résultats des européennes 2024, à partir de la base électorale consolidée par l’équipe data.gouv au format parquet :

      				
      					-- source : [https:] 
      
      CREATE OR replace TABLE s_com_europ2024 as
      WITH t1 AS (
      	FROM 'candidats_results.parquet'
      	SELECT "Code du département" || "Code de la commune" codgeo, nuance, 
      	sum(voix) tvoix,
      	sum(tvoix) over(PARTITION BY "Code du département" || "Code de la commune") exprimes,
      	WHERE id_election = '2024_euro_t1'
      	GROUP BY codgeo, nuance
      ), t2 AS (
      	PIVOT t1 
      	ON nuance USING(sum(tvoix))
      )
      FROM t2 SELECT codgeo,exprimes,LREC+LRN RN,LENS,LFI+LUG+LVEC+LCOM LNFP
      ORDER BY codgeo ;
      
      
      				
      			

      J’utilise DuckDB dans sa version la plus récente (dev 1.0.1), qui simplifie davantage encore les écritures. 

      Deux extensions vont me servir, SPATIAL pour les requêtes géographiques, H3 pour créer et manipuler le maillage hexagonal. 

      				
      					INSTALL H3 FROM COMMUNITY ;
      LOAD H3 ;
      
      -- pour récupérer, si besoin, la version de dev :
      -- FORCE INSTALL spatial FROM 'http://nightly-extensions.duckdb.org';
      LOAD SPATIAL ;
      
      
      				
      			

      À partir du contour de la France métropolitaine, je crée une enveloppe, et je peux la voir immédiatement dans DBeaver.

      				
      					CREATE OR REPLACE VIEW e_fra AS
      FROM st_read('a_frametro.json') 
      SELECT st_convexHull(geom).st_buffer(0.1) AS geom ;
      
      				
      			
      eur2024_hull

      Notre première fonction H3, l’une des plus puissantes, est en mesure de mailler ce polygone avec plein de petits hexagones de niveau 7. Ils sont 182 000. DBeaver ne m’en montre qu’un échantillon, mais c’est déjà impressionnant ! 

      				
      					FROM e_fra
      SELECT h3_polygon_wkt_to_cells(geom, 7) -- ids
      	    .unnest()
      		.h3_cell_to_boundary_wkt()
      		.st_geomfromtext() ; -- géométries
      				
      			
      eur2024_hull_h3

      h3_polygon_wkt_to_cells() renvoie une valeur qui est en fait une liste d’identifiants d’hexagones. unnest() permet de déplier cette valeur/liste en autant de lignes de la table résultante.

      h3_cell_to_boundary_wkt(), autre fonction très utile, génère la géométrie hexagonale d’un identifiant.

      On peut ainsi fabriquer un grillage spatial sans écrire soi-même aucun calcul mathématique.

      Pour remplir une forme plus complexe que le simple POLYGON précédent, la France par exemple, il faut la décomposer en formes plus élémentaires, et assembler le résultat pour constituer une table homogène.

      				
      					CREATE OR REPLACE TABLE fra_h3_res7 AS
      WITH france_polys AS (
      	FROM st_read('a_frametro.json')
      	-- décomposition MULTIPOLYGON -> POLYGON
      	SELECT st_dump(geom).unnest(recursive := true) AS geom
      ), h3_ids AS (
      	FROM france_polys 
      	SELECT list(h3_polygon_wkt_to_cells(geom, 7))
      			.flatten().unnest() AS id -- concaténation des ids d'hexagones
      ) FROM h3_ids SELECT id, 
      -- conversion en géométries
      h3_cell_to_boundary_wkt(id).st_geomfromtext() AS geom ;
      
      
      				
      			

      Voici un aperçu des 115 000 hexagones du niveau 7 qui recouvrent la France métropolitaine.

      Passons dans Mapshaper

      Les fonctions cartographiques de DBeaver sont pratiques, mais limitées. L’outil Mapshaper affiche sans aucune difficulté l’ensemble de la couche. 

      Au préalable, on aura procédé, dans DBeaver, à un export Geojson.

      				
      					COPY fra_h3_res7 TO 'fra_h3_res7.json' 
      WITH (format GDAL, driver GeoJSON) ;
      
      
      				
      			

      Il suffit ensuite de faire glisser ce fichier dans l’interface de Mapshaper. La console de cet outil permet d’écrire de puissantes instructions de manipulation, dont je vais profiter.

      Je souhaite enrichir cette grille par jointure spatiale avec deux autres couches géographiques. Je vais ainsi relier chaque hexagone aux département, région et commune(s) qui le recouvrent ou l’intersectent.

      				
      					target fra_h3_res7 \
      join a-depmetro calc='reg=first(reg), dep=first(dep)' largest-overlap \
      join a-com2022 calc='com2022=first(codgeo), coms2022=collect(codgeo)' largest-overlap \
      join a-com2022 calc='coms2022=collect(codgeo)'
      
      
      				
      			

      Ces opérations complexes prennent moins de 10 secondes dans mon navigateur. 

      J’utilise ce fond de carte communal.

      L’identifiant d’un hexagone est un entier de grande taille. Mapshaper l’interprète plutôt comme une string, on y sera attentif par la suite.

      Je stocke ma couche hexagonale enrichie sous la forme d’un fichier geoparquet, ce que permet très simplement la version 1.0.1 de DuckDB. Le fichier produit pèse à peine 9 Mo. 

      				
      					COPY (
      	FROM st_read('fra_h3_res7_v2.json')
      	SELECT * REPLACE(id::ubigint AS id),
      	ORDER BY reg,id
      ) TO 'fra_h3_res7_v2.parquet' (compression ZSTD) ;
      
      
      				
      			
      Cartographie thématique avec Mapshaper

      Je ne les avais jamais utilisées, je découvre avec bonheur les fonctions de coloriage de Mapshaper !

      La surface des hexagones n’est pas constante dans H3, car ces hexagones résultent de la projection sur la sphère terrestre d’une forme géométrique complexe, un icosaèdre. De plus, leur surface apparente dépendra de la projection cartographique finale.

      Pour autant, cette surface projetée varie peu d’un hexagone à l’autre. Voici ce que donne le rapport à la surface moyenne :

      				
      					classify field=coeff_area colors='#fff5eb,#fee7cf,#fdd4ab,#fdb97e' classes=4 \
      style stroke='d.fill'
      
      
      				
      			

      Conscient de ces petites variations, je considère tout de même que le lissage à venir s’appliquera de façon globalement homogène – en tous cas bien plus homogène que si j’en étais resté au maillage communal.

      J’ai pu agrémenter ma carte de limites départementales et régionales précisément superposables, par fusion de la couche détaillée : Mapshaper excelle dans ces traitements topologiques, et je vais 10 fois plus vite qu’avec un logiciel spécialisé comme QGIS !

      				
      					target fra_h3_res7_v2 \
      dissolve dep,reg
      
      				
      			
      Projection des données communales du vote sur la grille H3

      Je dispose donc d’un excellent référentiel cartographique, avec des hexagones enrichis d’informations communales : elles vont me permettre de faire le lien avec la table des résultats électoraux.

      Dans une table intermédiaire, je stocke le nombre d’hexagones couvrant chaque commune.  

      				
      					CREATE OR replace VIEW n_com_h3_res7 as
      WITH t1 AS (
      	FROM 'fra_h3_res7_v2.parquet'
      	SELECT UNNEST(coms2022) codgeo, id 
      ) FROM t1 SELECT codgeo, count() AS nb_h3_res7
      GROUP BY codgeo 
      ORDER BY codgeo ;
      
      FROM n_com_h3_res7 
      WHERE codgeo = '31555';  -- 38 hexagones intersectent Toulouse
      				
      			

      Grâce à cela et par jointure, je ventile la table communale du vote à l’hexagone.

      				
      					CREATE OR REPLACE table s_h3_res7_europ2024 AS
      FROM s_com_europ2024 p
      -- jointures sur le code commune
      JOIN n_com_h3_res7 n using(codgeo)
      JOIN (FROM 'fra_h3_res7_v2.parquet'
      	SELECT UNNEST(coms2022) codgeo, id) h3 
      	ON h3.codgeo = p.codgeo
      SELECT id, 
      round(sum(RN/n.nb_h3_res7),1) RN, -- ventilation des votants sur chaque hexagone
      round(sum(exprimes/n.nb_h3_res7),1) exprimes 
      GROUP BY id ORDER BY id ;
      				
      			

      Il ne me reste plus qu’à injecter cette information dans la couche spatiale des hexagones, que j’exporte vers Mapshaper :

      				
      					COPY (
      	FROM 'fra_h3_res7_v2.parquet' m
      	JOIN s_h3_res7_europ2024 l USING(id) 
      	SELECT RN, exprimes, 
      	round(100*RN/exprimes, 1) part_rn, 
      	st_geomfromwkb(geom) geom
      ) TO 'a_h3_7_europ2024_fra_brut.json' WITH (format GDAL, driver GeoJSON) ;
      				
      			

      J’essaie deux variantes de coloration, en quantiles, et avec des seuils explicites (pour faciliter les comparaisons à venir entre carte brute et cartes lissées) :

      				
      					classify field=part_rn quantile classes=5 colors=Oranges \
      style stroke='d.fill'
      
      classify field=part_rn breaks=35,40,45,50 colors=Oranges \
      style stroke='d.fill'
      				
      			

      Européennes 2024 – Part des votes RN et Reconquête (%) – par hexagone de niveau 7

      Le lissage final

      Pour lisser les données par fenêtre spatiale mobile, il me faut faire le lien entre un hexagone donné, et l’ensemble des hexagones voisins, de premier niveau jusqu’au niveau 10.

      h3_grid_disk_distances() me donne cette liste d’anneaux successifs en un seul appel. C’est un autre atout majeur du système H3.

      				
      					CREATE OR replace VIEW corresp_h3_res7_dist10 AS 
      WITH t1 AS (
      	FROM 'fra_h3_res7_v2.parquet' 
      	SELECT id, list_transform(h3_grid_disk_distances(id, 10), 
      							  (c,i) -> {ids:c, distance:i})
      						.unnest(recursive := true)
      ) 
      FROM t1 
      SELECT id, unnest(ids) id2, distance ;
      				
      			

      L’opération de lissage résulte d’un appariement de cette table de correspondance et des données de vote à l’hexagone. Je définis une fonction de pondération inverse de la distance, et je me réserve la possibilité d’ajuster le rayon de lissage.

      				
      					CREATE OR REPLACE VIEW s_h3_res7_europ2024_liss as
      FROM corresp_h3_res7_dist10 c 
      JOIN s_h3_res7_europ2024 p ON c.id2 = p.id
      SELECT c.id, 
      sum( RN     /(1 + pow(distance-1,1.5)) ) RN, -- 1.5 (pondération) ajustable
      sum(exprimes/(1 + pow(distance-1,1.5)) ) exprimes
      WHERE distance 
      				
      			

      Pour rappel, la méthode commence par agréger séparément le numérateur et le dénominateur, le taux “ambiant” est calculé dans un second temps, avant export vers Mapshaper :

      				
      					COPY (
      	FROM 'fra_h3_res7_v2.parquet' 
      	JOIN s_h3_res7_europ2024_liss USING(id) 
      	SELECT RN, exprimes, 
      	round(100*RN/exprimes,1) part_rn, 
      	geom
      ) TO 'a_h3_res7_europ2024_fra_liss_l5_p15.json' 
      WITH (format GDAL, driver GeoJSON) ;
      				
      			
      				
      					classify field=part_rn breaks=35,40,45,50 colors=Oranges \
      style stroke='d.fill'
      				
      			

      Voici le résultat, avec en prime une comparaison avec le vote le Pen lors de l’élection présidentielle de 2022.

      Européennes 2024 – part des votes RN et Reconquête (%) et présidentielle 2022 – Part du vote le Pen (%)

      2024 2022

      Ces deux cartes présentent de grandes similitudes. Même si les seuils ne sont pas comparables (le vote RN était supérieur, en %, en 2002, mais il s’agissait du 2d tour, avec donc seulement 2 candidats en présence).

      D - À vous de jouer !

      Ci-dessous figure l’accès à ce kit de lissage : la couverture H3 de la France au niveau 7, et la table de correspondance entre chaque hexagone et leurs voisins. Les préparer a demandé un peu de temps, comme on l’a vu ci-dessus.

      Leur application à toute base de données communales est toutefois simple et rapide, deux requêtes suffisent, et tournent en moins de 10 secondes : ventilation des valeurs additives sur la grille H3, et lissage par fenêtre mobile. Avec Mapshaper, vous en voyez très rapidement le résultat. Lisser ne demande qu’un éditeur SQL (ou le client léger DuckDB) et le navigateur web.

      Pour en savoir plus

      L’article Les lignes de force du vote RN en 2024 : une cartographie lissée avec la grille H3 est apparu en premier sur Icem7.

    • sur Journée d’étude du CFC “CARTOGRAPHIE ET CINÉMA”, 6 décembre 2024

      Publié: 10 July 2024, 7:46pm CEST par Catherine Hofmann

      Institut national d’histoire de l’art, 2 rue Vivienne Paris (salle Vasari)

      Dans le prolongement de la rencontre organisée le 25 novembre 2023 autour des croisements entre art et cartographie, la Commission Histoire du Comité Français de Cartographie présente le 6 décembre 2024 une Journée d’études intitulée « Cartographie et cinéma ». Comme chacun le sait, le cinéma, principal média de fiction développé au cours du XXe siècle, a été dès son origine tourné vers la représentation des espaces et des paysages les plus divers à la surface de la planète. La cartographie, sous toutes ses formes, a été mobilisée pour transformer les lieux et les espaces géographiques en un ensemble de supports et de foyers narratifs. La Journée d’études a pour ambition d’explorer quelques-unes des modalités de la présence de la cartographie dans l’histoire du cinéma de fiction ainsi que dans les opérations cinématographiques.

      Avec le soutien de l’EPHE-PSL (Histara), du CNRS (Lamop) et de la Bibliothèque nationale de France

      Journee-Cartographie-et-cinema-6-decembre-2024-programmeTélécharger PROGRAMME

      9h : Accueil et introduction

      Première session : Les imaginaires cartographiques du/au cinéma

      9h30 : Teresa Castro, Les imaginaires cartographiques du cinéma

      10h : Robin Hopquin, Une France imaginaire : cartographie des films français à succès (2015-2024)

      10h30-10h45 : Pause-café

      Deuxième session : La carte au cinéma, entre quête, enquête et errance

      10h45 : Marcello Tanca, Cartographier l’errance, l’inattendu, l’étonnement et les choses : Perfect days de Wim Wenders.

      11h15 : Mathieu Combes, « La smetta con queste geometrie! ». La cartographie comme enquête chez Francesco Rosi

      11h45 : Thierry Joliveau, Une analyse du rôle de la carte et d’autres géodispositifs dans deux films de quête et de voyage

      12h15-14h : Déjeuner

      Troisième session : La carte au cinéma, entre pouvoir, oppressions et résistances

      14h : Guillaume Monsaingeon, Dansons avant qu’il n’explose : Le Dictateur de Charlie Chaplin

      14h30 : Alice Letoulat, “Non identifié”. Oppressions et résistances cartographiques dans Bacurau (Kleber Mendonça Filho et Juliano Dornelles, 2019)

      15h-15h15 : Pause-café

      Quatrième session : Carte et cinéma dans la France de l’entre-deux-guerres

      15h15 : Nadège Mariotti / Jitka de Préval, Du Tour de la France par deux enfants (1923) à la France imaginée, filmée et cartographiée des premiers temps du cinéma à la fin des années 1920

      15h45 : Mathieu Panoryia, Usages et significations de la carte dans les films sur la Première Guerre mondiale

      16h15-16h30 : Pause-café

      Ouvertures et conclusion

      16h30 : Jasmine Desclaux-Salachas, Les Cafés – carto et le cinéma

      16h45 : Marina Duféal, Du festival Géocinéma au film d’animation « Astérix, le secret de la potion magique », retour en carte sur des expériences de décryptages géo-cinématographiques

      17h : Conclusion générale de la journée

      Contact : catherine.hofmann@bnf.fr

    • sur Naviguer dans l’Ère des Tuiles Vectorielles : Techniques et Applications

      Publié: 9 July 2024, 8:38am CEST par admin
      C’est quoi une tuile ?

      Pour diffuser des données spatiales sur une carte, il existe différents formats de données dont celui de la tuile vectorielle qui apporte de nouvelles possibilités d’affichage de données (rapidité d’accès à la donnée, facilité de modification du style, interaction directe des utilisateurs avec les objets).

      En effet, une carte numérique peut théoriquement afficher des données à n’importe quelle échelle et à n’importe quel endroit, mais cette flexibilité peut poser des problèmes de performance.

      La mosaïque de tuiles améliore la vitesse et l’efficacité d’affichage :

      • En limitant les échelles disponibles. Chaque échelle est deux fois plus détaillée que la précédente.
      • En utilisant une grille fixe. Les zones que l’on souhaite afficher sont composées de collections de tuiles appropriées.

      La plupart des systèmes de tuiles commencent avec une seule tuile englobant le monde entier, appelée « niveau de zoom 0 », et chaque niveau de zoom suivant augmente le nombre de tuiles par un facteur de 4, en doublant verticalement et horizontalement.

      Coordonnées des tuiles

      Chaque tuile d’une carte en mosaïque est référencée par son niveau de zoom, sa position horizontale et sa position verticale. Le schéma d’adressage couramment utilisé est XYZ.

      Voici un exemple au zoom 2 :

      On va récupérer la tuile à l’aide de l’adressage XYZ suivant :

      http://server/{z}/{x}/{y}.format

      Par exemple, vous pourrez voir la tuile image de l’Australie à l’adresse suivante, c’est le même principe pour les tuiles vectorielles : [https:]]

      Principe d’une tuile vectorielle

      Les tuiles vectorielles ressemblent aux tuiles raster, mais à la place d’une image, elles contiennent des données permettant de décrire les éléments qui la composent avec des tracés vectoriels. Au lieu d’avoir des ensembles de pixels, il y a donc des ensembles de coordonnées de points, auxquels on peut associer plusieurs informations attributaires.

      Comme leurs cousines raster, les tuiles vectorielles peuvent être mises en cache, côté serveur et côté navigateur, et permettent de naviguer dans des cartes immenses rapidement, même sur des terminaux légers.

      Comment l’utilise-t-on ? Produire des tuiles vectorielles à la volée depuis PostGIS

      Il existe différentes briques pour publier des données à la volée depuis PostGIS, voici notre sélection :

      • pg_tileserv => [https:]] : c’est un serveur de tuile codé en GO et produit par Crunchy Data. On va préférer utiliser la version dockerisée dans nos applications => [https:]]
      • Martin => [https:]] : très similaire à pg_tileserv, codé en RUST et produit par MapLibre.
      • GeoServer : permet également de générer des tuiles vectorielles

      Dans le cadre de ce blog, nous resterons sur l’utilisation de pg_tileserv.

      pg_tileserv

      Par défaut, pg_tileserv permet de produire des tuiles vectorielles à partir des tables géographiques qui sont dans la base de données.

      Tout l’intérêt d’utiliser un outil comme pg_tileserv réside dans la génération de tuiles produites à partir d’une analyse plus fine.

      Voici un exemple de requête que l’on peut utiliser pour afficher une donnée cartographique. Cette requête va permettre de simplifier la géométrie en fonction du seuil de zoom et filtrer la donnée en fonction de l’opérateur et de la techno.

      CREATE OR REPLACE FUNCTION generate_couvertures_tiles(
        z integer,
        x integer,
        y integer,
        in_operateur bigint,
        in_techno character varying)
          RETURNS bytea
          LANGUAGE 'plpgsql'
          COST 100
          VOLATILE PARALLEL UNSAFE
      AS $BODY$
      
      #variable_conflict use_variable
      begin
        return (
          WITH
          bounds AS (
            SELECT ST_TileEnvelope(z, x, y) AS geom,
           (CASE
            when z >= 12 then 0
            when z = 11 then 0
            when z = 10 then 10
            when z = 9 then 100
            when z = 8 then 300
            when z = 7 then 900
            when z = 6 then 1500
            when z <= 5 then 3000
            ELSE 1 END
             ) as simplify_tolerance
          ),
      
          mvtgeom AS (
            SELECT fid, operateur, date, techno, usage, niveau, dept, filename,
            ST_AsMVTGeom(
                ST_Simplify(t.geom,simplify_tolerance), bounds.geom) AS geom
      
            FROM couverture_theorique t, bounds
            WHERE ST_Intersects(t.geom, bounds.geom )
            and operateur = in_operateur
            and techno = in_techno
          )
          SELECT ST_AsMVT(mvtgeom)
          FROM mvtgeom
        );
      end;
      $BODY$;

      Pour appeler cette fonction, on va utiliser l’url formatée de la manière suivante :

      https://hostname/tileserv/public.generate_couvertures_tiles/{Z}/{X}/{Y}.pbf?in_operateur=28020&in_techno=3G

      Vous voilà en mesure de faire parler votre imagination pour récupérer les données que vous souhaitez et répondre aux besoins de votre carte.

      On peut penser à la création de Cluster, d’analyse thématique, d’agrégation de couche ou que sais-je.

      Et la performance dans tout ça ?

      Toute cette liberté acquise va nous plonger dans des requêtes de plus en plus complexes et donc nous apporter une performance dégradée. Si chaque tuile prend 10 secondes à se générer, l’expérience utilisateur sera mauvaise.

      Pour remédier à ce contretemps, rappelons-nous que la tuile vectorielle repose sur une grille fixe. Il est donc possible de générer du cache (mise en cache). Cool ! mais comment fait-on cela ?

      C’est parti :

                  1 – Créer une table de cache de tuiles

      CREATE TABLE IF NOT EXISTS tiles_cache
      (
          z integer NOT NULL,
          x integer NOT NULL,
          y integer NOT NULL,
          operateur bigint NOT NULL,
          techno character varying COLLATE pg_catalog."default" NOT NULL,
          mvt bytea NOT NULL,
          CONSTRAINT tiles_pkey PRIMARY KEY (z, x, y, operateur, techno)
      )

      2 – Générer le cache

      Pour générer le cache, dans un premier temps on récupère les grilles sur lesquelles on a des données. Le seuil de zoom maximum (max_zoom) peut être défini dans la fonction suivante.

      CREATE OR REPLACE FUNCTION gettilesintersectinglayer(
        liste_operateur bigint,
        liste_techno character varying)
          RETURNS TABLE(x integer, y integer, z integer)
          LANGUAGE 'plpgsql'
          COST 100
          VOLATILE PARALLEL UNSAFE
          ROWS 1000
      
      AS $BODY$
      DECLARE
        tile_bounds public.GEOMETRY;
        max_zoom INTEGER := 7;
      BEGIN
        FOR current_zoom IN 1..max_zoom LOOP
          FOR _x IN 0..(2 ^ current_zoom - 1)
          LOOP
            FOR _y IN 0..(2 ^ current_zoom - 1)
            LOOP
              tile_bounds := ST_TileEnvelope(current_zoom, _x, _y);
              IF EXISTS (
                SELECT 1 FROM couverture_theorique
                WHERE ST_Intersects(geom, tile_bounds)
                AND operateur = liste_operateur
                AND techno = liste_techno
              )
              THEN
                RAISE NOTICE 'Traitement %', current_zoom || ', ' || _x || ', ' || _y;
                z := current_zoom;
                x := _x;
                y := _y;
                RETURN NEXT;
              END IF;
            END LOOP;
          END LOOP;
        END LOOP;
      END;
      $BODY$;

      À l’aide de ce tableau de grilles, on va générer l’ensemble des tuiles et les injecter dans la table de cache.

      with oper as (
        SELECT distinct operateur from couverture_theorique
      ),
      techno as (
        SELECT distinct techno from couverture_theorique
      )
      insert into tiles_cache_couverture(z, x, y, operateur, techno, mvt)
      select tile.z, tile.x, tile.y, oper.operateur,  techno.techno,
      generate_couvertures_tiles(tile.z, tile.x, tile.y, oper.operateur, techno.techno)
      from techno, oper, GetTilesIntersectingLayer(operateur, techno) as tile;

                  3 – Le rendu mixte cache ou requête

      Une fois que les tuiles sont insérées dans la table de cache, lorsque l’on va vouloir récupérer la tuile, il va falloir aiguiller la recherche pour que la fonction aille soit récupérer la tuile dans la table de cache ou la générer à la volée.

      CREATE FUNCTION couvertures(z integer, x integer, y integer, liste_operateur integer[], liste_techno character varying[]) RETURNS bytea
          LANGUAGE plpgsql
          AS $$
      
      #variable_conflict use_variable
      begin
        if (z <= 7 and array_length(liste_operateur,1) = 1) then
          return (
            SELECT mvt
            from tiles_cache_couverture
            Where tiles_cache_couverture.x=x
              AND tiles_cache_couverture.y=y
              AND tiles_cache_couverture.z=z
              and operateur = any(liste_operateur)
              and techno = any(liste_techno)
          );
        else
          return (
            WITH
            bounds AS (
              SELECTST_TileEnvelope(z, x, y) AS geom,
             (CASE
              when z >= 12 then 0
              when z = 11 then 0
              when z = 10 then 10
              when z = 9 then 100
              when z = 8 then 300
              when z = 7 then 900
              when z = 6 then 1500
              when z <= 5 then 3000
              ELSE 1 END
               ) as simplify_tolerance
            ),
      
            mvtgeom AS (
              SELECT fid, operateur, date, techno, usage, niveau, dept, filename,
              public.ST_AsMVTGeom(
                 ST_Simplify(t.geom,simplify_tolerance), bounds.geom) AS geom
      
              FROM couverture_theorique t, bounds
              WHEREST_Intersects(t.geom, bounds.geom )
              and operateur = any(liste_operateur)
              and techno = any(liste_techno)
            )
            SELECTST_AsMVT(mvtgeom)
            FROM mvtgeom
          );
        end if;
      end;
      $$;

      Maintenant en appelant la couche « couvertures » dans pg_tileserv, sur les zooms les plus petits (inférieur à 8), et donc les plus gourmands pour calculer la simplification géométrique, nous allons utiliser le cache de tuiles. Cependant, lorsque l’on sera relativement proche, on va utiliser la génération des tuiles à la volée car les performances sont bonnes.

      Pour les plus ardus, je vous mets un petit bonus. Un exemple de couche cluster générée coté base de données. Le cluster va s’adapter au seuil de zoom, pour clustériser au niveau départemental, puis communal, puis sous forme de cluster naturel (St_ClusterDBSCAN) avec un espacement dynamique pour chaque seuil de zoom, et enfin un affichage par objet quand on est très proche. On aurait pu imaginer un cluster en nid d’abeille que je trouve plus efficace car le problème du cluster de PostGIS, c’est qu’il va être calculé dans l’emprise de chaque tuile. Cela signifie qu’il découpe des clusters de façon arbitraire quand on a une densité importante entre 2 tuiles.

      CREATE FUNCTION cluster_filtres(z integer, x integer, y integer, filtres text[]) RETURNS bytea
          LANGUAGE plpgsql
          AS $_$
      
      #variable_conflict use_variable
      DECLARE
        query text;
        result bytea;
      begin
        --MISE EN PLACE DES FILTRES
      
        if ( z < 9) then
          --Vue par departement
          query := '
            WITH
            bounds AS (
              SELECT ST_TileEnvelope($1, $2, $3) AS geom
            ),
            item_fitler AS (
              --On récupère nos données filtrées
              SELECT distinct t.id
              FROM table t
              WHERE ' || filtres || '
            ),
            tot_dept AS (
              select code_departement, count(1) as tot_item
              from departement d
              INNER JOIN table t ON ST_Intersects(d.geom, t.geom )
              INNER JOIN item_fitler ON item_fitler.id = t.id
              group by code_departement
            ),
            mvtgeom AS (
              SELECT tot_dept.code_departement, tot_dept.tot_item,
              ST_AsMVTGeom(ST_PointOnSurface(tot_dept.geom), bounds.geom) AS geom
              FROM tot_dept
              INNER JOIN bounds ON ST_Intersects(tot_dept.geom, bounds.geom )
              WHERE tot_item is not null
            )
            SELECT ST_AsMVT(mvtgeom)
            FROM mvtgeom
          ';
          --RAISE NOTICE 'Calling query (%)', query;
          EXECUTE query INTO result USING z, x, y, filtres;
              return result;
         
        elsif ( z <= 10) then
          --Vue par commune, On ajoute un buffer pour récupérer les items autour de la tuile sans devoir le faire sur la France entière
          query := '
            WITH
            bounds AS (
              SELECT ST_TileEnvelope($1, $2, $3) AS geom
            ),
            item_fitler AS (
              --On récupère nos données filtrées
              SELECT distinct t.id
              FROM table t
              INNER JOIN bounds ON ST_Intersects(t.geom, ST_Buffer(bounds.geom, 10000) )
              WHERE ' || filtres || '
            ),
            tot_com AS (
              select insee_com, count(1) as tot_item
              from commune c
              INNER JOIN table t ON ST_Intersects(c.geom, t.geom )
              INNER JOIN item_fitler ON item_fitler.id = t.id
              group by insee_com
              having count(1) > 0
            ),
            mvtgeom AS (
              SELECT tot_com.insee_com, tot_com.tot_item,
              ST_AsMVTGeom(ST_PointOnSurface(tot_com.geom), bounds.geom) AS geom
              FROM tot_com
              INNER JOIN bounds ON ST_Intersects(tot_com.geom, bounds.geom )
              WHERE tot_item is not null
            )
            SELECT ST_AsMVT(mvtgeom)
            FROM mvtgeom
          ';
          --RAISE NOTICE 'Calling query (%)', query;
          EXECUTE query INTO result USING z, x, y, filtres;
              return result;
         
        elsif ( z <= 15) then
          --Vue par cluster
          query := '
            WITH
            bounds AS (
              SELECT ST_TileEnvelope($1, $2, $3) AS geom
            ),
            item_fitler AS (
              --On récupère nos données filtrées
              SELECT distinct t.id
              FROM table t
              INNER JOIN bounds ON ST_Intersects(t.geom, bounds.geom )
              WHERE ' || filtres || '
            ),
            clustered_points AS (
              SELECT ST_ClusterDBSCAN(t.geom, eps :=
                (CASE
                  when $1 = 11 then 500
                  when $1 = 12 then 385
                  when $1 = 13 then 280
                  when $1 = 14 then 150
                  when $1 = 15 then 75
                  ELSE 1 END
                ) , minpoints := 1) over() AS cid,
              t.fid, t.geom
              FROM table t
              INNER JOIN item_fitler s ON s.id = t.id
              group by t.id, t.geom
            ),
            mvtgeom AS (
              SELECT cid, array_agg(id) as ids,
              count(1) as tot_item,
              ST_AsMVTGeom(ST_PointOnSurface(ST_Collect(c.geom)), bounds.geom) AS geom
              FROM clustered_points c, bounds
              WHERE ST_Intersects(c.geom, bounds.geom )
              group by cid, bounds.geom
            )
            SELECT public.ST_AsMVT(mvtgeom)
            FROM mvtgeom
          ';
          RAISE NOTICE 'Calling query (%)', query;
          EXECUTE query INTO result USING z, x, y, filtres;
              return result;
        else
          --vue par objet
          query := '
            WITH
            bounds AS (
              SELECT ST_TileEnvelope($1, $2, $3) AS geom
            ),
            item_fitler AS (
              --On récupère nos données filtrées
              SELECT distinct t.id
              FROM table t
              INNER JOIN bounds ON ST_Intersects(t.geom, bounds.geom )
              WHERE ' || filtres || '
            ),
            mvtgeom as (
              SELECT ST_AsMVTGeom(t.geom, bounds.geom) AS geom, t.id
              FROM item_fitler t , bounds
              WHERE ST_Intersects(t.geom, bounds.geom )
            )
            SELECT ST_AsMVT(mvtgeom)
            FROM mvtgeom
          ';
          EXECUTE query INTO result USING z, x, y, filtres;
              return result;
        end if;
      end;
      $_$;
      Finalement quels avantages ? Fond de plan

      Dans les choix des fonds de plan, les avantages sont multiples.

      On peut assez facilement personnaliser un fond de plan en modifiant les paramètres d’affichage que l’on souhaite utiliser pour chaque élément. Pour faire cela, on peut s’appuyer sur des fichiers de style comme ceux proposés par Etalab : [https:]] .

      Si l’on héberge soit même les fichiers de style, on peut les modifier pour choisir le style des éléments. Voici à quoi ressemble le paramétrage d’un élément issu d’une tuile vectorielle :

          {
            "id": "landuse-commercial",
            "type": "fill",
            "source": "openmaptiles",
            "source-layer": "landuse",
            "filter": [
              "all",
              ["==", "$type", "Polygon"],
              ["==", "class", "commercial"]
            ],
            "layout": {
              "visibility": "visible"
            },
            "paint": {
              "fill-color": "hsla(0, 60%, 87%, 0.23)"
            }
          },

      Il est par exemple possible d’extruder les bâtiments si on souhaite obtenir un rendu 3D

      L’affichage vectorielle permet également d’afficher les libellés / icônes toujours dans le bon sens de lecture.

      Choix de l’ordre d’affichage des couches

      Ensuite il est intéressant de rappeler qu’il est possible de modifier l’ordre d’affichage des couches qui sont issues du fond de plan et des couches métiers, ce qui n’est pas possible avec les fonds de plan de type WTMS. On peut donc faire ressortir les libellés des communes sur une couche métier.

      Couche vectorielle

      La couche étant vectorielle, il est également possible de récupérer des attributs de celle-ci.

      Outil de d’édition du style

      Il existe plusieurs outils permettant de modifier le style des données vectorielles. Cependant je vous conseille maputnik qui est très complet et accessible => [https:]]

      Conclusion

      En conclusion, les tuiles vectorielles représentent une avancée significative dans la diffusion et l’affichage de données spatiales, et permettent de créer des applications cartographiques avancées. Encore faut-il les intégrer dans des outils robustes et des méthodologies performantes, afin de répondre aux besoins croissants de précision et de réactivité. La technologie des tuiles vectorielles est essentielle pour le futur de la cartographie numérique, offrant un équilibre entre performance, flexibilité et interactivité.

      Pistes futures ?

      L’authentification et les rôles à travers pg_tileserv. On pourrait imaginer dans un futur blog, comment fusionner l’authentification via un token, le service pg_tileserv et la sécurité de PostgreSQL avec le Row Level Sécurity. Cela permettrait de gérer les droits au niveau de l’objet et nativement dans PostgreSQL.

      Rédacteur : Matthieu Etourneau

    • sur Analyser les cartes et les données des élections législatives de 2024 en France

      Publié: 7 July 2024, 8:09pm CEST


      Les élections législatives anticipées des 30 juin et 7 juillet sont les dix-septièmes élections législatives sous la Cinquième République. À bien des égards, elles apparaissent comme un scrutin exceptionnel : décision surprise de la dissolution de l’Assemblée nationale par le président de la République au soir des élections européennes du 9 juin, perspective d’une alternance gouvernementale à l’issue du second tour du scrutin, formation de nouvelles coalitions électorales à gauche comme à droite du système partisan pendant la campagne, contexte politique particulièrement anxiogène.

      L'objectif de ce billet est de fournir une approche critique des cartes et des graphiques que l'on peut trouver dans les médias. Il s'agit de donner accès aux données et à la fabrique de l'information, mais aussi de comparer les choix opérés par les médias en regard des cartes et analyses proposées par des géographes, des sociologues ou des politistes.

      I) Analyser les cartes et les données du 1er tour des législatives (30 juin 2024)

      1) Accès aux données

      Le taux de participation a été de 66,7% au 1er tour, soit nettement au dessus du taux de participation aux législatives de 2022 qui était de 48,5%. A lui seul, le Rassemblement national a rassemblé  29,25% des voix au 1er tour. En deuxième position, le Nouveau Front populaire obtient 27,99% des suffrages. Le camp présidentiel n'arrive, lui, qu'en troisième place, avec 20,04% des voix. Loin derrière, avec leurs alliés Divers droite, Les Républicains qui ont refusé de suivre Eric Ciotti dans une alliance avec le RN, obtiennent 10,23% des suffrages. 

      Seulement 76 candidats ont été élus au premier tour. C’est le Rassemblement National et la France insoumise qui ont le plus de candidats élus au premier tour le 30 juin 2024.

      Liste des candidats au 1er tour avec leur parti et leur profession (Data.gouv.fr)

      Résultats définitifs du 1er tour des élections législatives du 30 juin 2024 (Data.gouv.fr)

      2) Cartes des résultats dans les médias

      • La carte des résultats des législatives au premier tour et le tableau des candidats qualifiés (Le Monde)
      • Législatives 2024 : voici les résultats définitifs du premier tour, parti par parti (Le Parisien)
      • Les résultats du premier tour des législatives 2024 dans chaque circonscription (Libération)
      • Résultats du 1er tour des législatives 2024 : découvrez les scores des candidats et les députés qualifiés (France Info)
      • Législatives 2024 : la carte des résultats du premier tour (Les Echos)
      • Élections législatives 2024: découvrez les résultats définitifs dans votre circonscription et dans votre ville (Le Figaro)
      • Législatives : le Rassemblement National aurait la majorité absolue au deuxième tour sans désistement généralisé ou front républicain - projection exclusive (Le Grand Continent)
      • Cartographie électorale et symbolisme des couleurs. Le choix du bleu marine (au lieu du brun) pour représenter le RN et ses alliés n'est pas anodin. On le retrouve par exemple pour l'AFP, France Info ou Le Parisien. Au contraire, Libération et Les Echos font le choix de représenter le RN en noir, Le Monde et Mediapart en brun. Le Figaro n'est pas très clair dans ses choix sémiologiques (violet pour le candidat RN en tête et bleu lorsqu'il est élu). Voir cet article de Wikipedia sur le symbolisme des couleurs en politique.
      • Triangulaires : le désistement de la gauche change la donne dans 160 circonscriptions. Quels scénarios pour le second tour ? (Le Grand Continent)
      • Outre les triangulaires qui devraient se réduire avec certains désistements, le site Contexte identifie les points chauds où l'écart de points est faible entre le 1er et le 2e candidat (cela ne présage pas des reports de voix en provenance d'autres candidats).
      • Législatives : et revoilà les fragiles projections de sièges. Les grandes chaînes continuent d'afficher des diagrammes qui n'ont aucune valeur (Arrêt sur Images)

      3) Piste d'analyses pour approfondir

      • Décryptage des résultats au lendemain du 30 juin 2024 par Pierre-Henri Bono (Cevipof - SciencesPo)
      • Sociologie des électorats et profil des abstentionnistes (sondage IPSOS - 30 juin 2024)
      • Quelles circonscriptions peuvent faire basculer les élections ? (The Conversation). Accès à l'outil de cartographie interactive proposé par Claude Grasland
      • Votes aux législatives : explorations géographiques (Olivier Bouba-Olga)
      • « Ce qui explique vraiment les différences de vote RN entre les villes et les campagnes » par Olivier Bouba-Olga et Vincent Grimault (Alternatives économiques)
      • Législatives 2024 : vote des champs et vote des villes, une question de diplômes plus que de géographie (Le Monde)
      • Eric Charmes, géographe : « Face à l’extrême droite, les autres forces politiques devront imposer une lecture différente de la France périphérique » (Le Monde)
      • Carte des résultats du premier tour des élections législatives 2024 par bureau de vote (Julien Gaffuri)
      • Tendances politiques des quartiers de Nantes Métropole selon les résultats des législatives du 30 juin 2024 (Martin Vanier)
      • « Entre foyers pauvres et modestes, une classe d'écart mais des votes aux antipodes » (Charivari). Hervé Mondon croise les résultats du premier tour des législatives avec le niveau de vie de chaque circonscription (données issues du portrait statistique des circonscriptions législatives de l’Insee de 2022)

      4) Réflexion sur le mode de scrutin 

      Outre les effets pervers du scrutin majoritaire, pour les législatives se pose le problème du découpage et de la forte disparité des circonscriptions électorales :

      • « Législatives : le maillage des circonscriptions »  (Les Cartes en mouvement)
      • « Législatives : les fortes disparités entre les 577 circonscriptions sur le nombre d’habitants ou d’inscrits, le taux de chômage, l’âge moyen... » (Le Monde - Les Décodeurs)
      • « Quel est votre poids électoral ? » par Cédric Rossi (Visionscarto)
      • « Faut-il que ces élections législatives soient les dernières au scrutin majoritaire à deux tours ? » (France Inter)

      II) Analyser les cartes et les données du 2nd tour des législatives (7 juillet 2024)

      La participation finale s'élève à 66,63%, soit une hausse de 20,4 points par rapport à 2022 où elle avait été l’une des plus faibles sous la Ve République : seulement 46,23% des inscrits s'étaient rendu aux urnes pour le second tour. 1094 candidats (656 hommes, 438 femmes) dans 409 duels, 89 triangulaires et 2 quadrangulaires étaient en lice dans les 501 circonscriptions pour lesquelles un second tour était organisé le dimanche 7 juillet 2024. 

      Le Front Populaire arrive en tête du 2nd tour avec 170 sièges, Ensemble en 2e position avec 150 sièges, le Rassemblement et ses alliés en 3e position avec 143 sièges suivis par Les Républicains et apparentés avec 66 sièges. Les désistements ont profité au Nouveau Front Populaire (NFP), mais aussi à l'ancienne majorité. C'est le Rassemblement National (RN) qui réunit le plus de suffrages exprimés (8,7 millions de voix), suivi par le Nouveau Front populaire (7 millions de voix) et Ensemble (6,3 millions). Du point de vue de la répartition géographique, le NFP réalise de gros scores à Paris et en petite couronne. Ensemble est très implanté dans le centre et l'ouest, tandis que le RN et ses alliés s'implantent durablement dans le sud-est et dans une grande partie du nord-est de la France.

      1) Accès aux données

      Résultats officiels publiés par le Ministère de l'Intérieur

      Liste des candidats au 2e tour avec leur parti et leur profession (Data.gouv.fr). Selon les premières analyses de la sociologie des député(e)s de la nouvelle Assemblée nationale, on observe en moyenne trois fois plus de députés parmi les professions cadres supérieurs et professions intellectuelles supérieures que dans la population active (Cevipof). On compte 36% de femmes parmi les élu.e.s (contre 37,3% en 2022). Sur 577, on dénombre 423 sortants (soit 73 %). Sur les 154 nouveaux députés, 141 n’ont jamais siégé à l’Assemblée nationale.

      2) Cartes des résultats dans les médias

      • La carte des résultats des législatives 2024 au second tour : la composition de l’Assemblée et le tableau des candidats élus (Le Monde). 155 circonscriptions changent de couleur politique (Le Monde-Les Décodeurs)
      • Les résultats du second tour des élections législatives 2024 par commune (Libération)
      • Législatives 2024 : la carte de France des résultats du second tour des élections (Le Parisien)
      • Législatives : comment la mécanique du barrage a fonctionné ? 6 leçons clefs (Le Grand Continent). Quelle efficacité pour le "front républicain” ?" (mesure de l'écart entre le candidat RN ou alliés et le candidat qui lui était opposé dans les duels du second tour)
      • Législatives : formation politique arrivée en tête des élections, par circonscription (Les Echos). Résultats des législatives : 3 cartes pour comprendre la géographie du vote au second tour (Les Echos)
      • Résultats Législatives : la carte complète des députés élus par parti (Le Figaro)
      • La carte des résultats circonscription par circonscription (Ouest France)
      • Résultats des élections législatives 2024 : une circonscription sur quatre a changé de couleur politique, la vôtre est-elle concernée ? (France Info)
      • Résultats des législatives : tentez de composer une majorité absolue avec un simulateur de coalitions (Le Figaro)
      • Quelle coalition ? Composez votre majorité absolue avec un simulateur de coalitions (Le Grand Continent)

      3) Piste d'analyses pour approfondir
      • « Décryptage des résultats  au lendemain du 7 juillet 2024 » (Cevipof). Huit chercheurs proposent une analyse des résultats du second tour des législatives 2024.
      • « NFP, Ensemble, LR : qui sont les électeurs qui ont le plus fait barrage au RN ? » (CheckNews-Libération)
      • « France de l’abstention, France de gauche, France de droite ou d’extrême droite : une radiographie politique du pays » (L'Humanité). L’éclairage des cartographes Nicolas Lambert, Antoine Beroud et Ronan Ysebaert à partir de cartes par interpolation (UAR RIATE). Avec méthodologie et code source disponibles sur Observable.
      • « Quelles cartes pour comprendre les élections de 2024 en France ? » (Géoconfluences)
      • Alexandre Blin, étudiant du master SIGAT, propose une datavisualisation donnant une vision générale de la répartition géographique des trois blocs accompagnée de deux histogrammes (nombre de voix et transformation au 2nd tour).
      • « Vents contraires de la politique française. Evolution du vote entre les élections de 2024 et celles de 2022 » par Sylvain Lesage.
      • « On est peut-être à l’aube d’une révision constitutionnelle majeure ». En l’absence de majorité absolue, les parlementaires élus vont devoir inventer un chemin non prévu par la Constitution de la Ve République, estime la constitutionnaliste Charlotte Girard (Politis).
      • « Législatives 2024. Qu'a voté la France des villes moyennes ? » par Ivan Glita et Achille Warnant (Fondation Jean Jaurès).
      Le billet est complété au fur et à mesure des liens repérés sur Internet.


      Articles connexes

      Analyser les cartes et les données des élections législatives de juin 2022 en France

      Cartes et graphiques sur les élections européennes de 2024

      Portraits des circonscriptions législatives en France (2022)
      Analyser les cartes et les données des élections présidentielles d'avril 2022 en France

      La carte, objet éminemment politique : exemple des élections européennes

      Dis-moi où tu vis, je te dirai ce que tu votes ? (Géographie à la carte, France Culture)

      S'initier à la cartographie électorale à travers l'exemple des élections présidentielles de novembre 2020 aux Etats-Unis


    • sur Cartographie d’un duel électoral NFP-ENS : le cas de la 10e circonscription des Français de l’étranger

      Publié: 5 July 2024, 12:48pm CEST par Françoise Bahoken

      Ce travail a été réalisé avec la collaboration de Kalliopi ANGO ELA, professeure de Géographie et ancienne sénatrice des Français à l’étranger pour Europe Écologie Les Verts, Directrice de Fondation Paul Ango Ela de géopolitique en Afrique centrale et de Muriel SAMÉ EKOBO, professeure de Géographie et chercheure à la Fondation Paul Ango Ela de géopolitique en Afrique centrale.

      Le Nouveau Front Populaire (NFP) représenté par Elsa DI MÉO (NFP-PS) est arrivé en tête du premier tour des élections législatives dans 34 des 48 pôles électoraux de la circonscription n°10 des Français établis hors de France. Ensemble (ENS) représenté par Amal Amélia LAKRAFI (ENS-Renaissance) arrive en seconde position, avec 12 de ces pôles. Les Républicains (LR) et les Divers-Gauche (DIV-G) n’arrivant en tête, chacun, que dans un seul bureau de vote.

      Cette circonscription n°10, qui enregistre environ 155 000 électeurs répartis sur 49 pays du Moyen-Orient et de l’Afrique, a montré un taux de participation beaucoup plus élevé qu’à l’habitude (32,06 %) même s’il peut sembler relativement faible au regard de la moyenne nationale (66,7 %).

      Les résultats du premier tour des élections législatives du 30 juin 2024 révèlent deux blocs politiques. Celui du NFP, correspondant à deux Afriques : la première couvre une large bande, depuis l’Afrique sub-saharienne jusqu’à l’Afrique Orientale,de N’Djaména à Maputo, en incluant la côtière (Cotonou, Lomé, Accra). La seconde bande s’étend de l’Afrique orientale au Proche Orient, depuis Djibouti et Alexandrie (en Égypte) jusqu’à Erbi au nord et Manama au nord-est. Le bloc d’ENS apparaît surtout dans les circonscriptions périphériques de ce territoire. Est-ce à dire que le NFP serait en passe de l’emporter au second tour de ces législatives ?

      – Carte n°1 –

       

      En regardant de plus près la distribution des votes, on observe que ce sont les pôles électoraux importants, en termes de nombre d’inscrit.es, par conséquent de votant.es, qui ont remporté la mise. Si les trois-quarts des circonscriptions consulaires ont mis en avant le NFP, il ne dispose cependant que de 253 voix d’écarts avec ENS, respectivement 11 651 et 11 398 voix pour chacune des deux candidates.

      – Carte n°2 –

      Les gros pôles électoraux tels Beyrouth au Liban, Dubaï, Abou-Dabi, Koweït et Mascate dans la péninsule arabique, Port-Louis à Maurice ou Tananarive à Madagascar ont donné plus de voix à ENS.

       

      L’effet de proximité du vote au 1er tour

      On peut observer trois anomalies dans la répartition générale des voix qui résulte d’un effet de proximité, ce qui signifie que les électeurs ont d’abord voté pour le ou la candidate la plus proche d’eux. Cet effet de proximité, que l’on peut interpréter sur la cartographie du nombre de voix d’écart entre les deux premiers canditat.es, se manifeste de deux manières : sur le plan politique et au niveau géographique.

      – Carte n°3 –

      La première anomalie résulte d’un effet de proximité politique au profit de LR à Beyrouth au Liban (voir Carte n°2). Ce gros pôle électoral (18 751 inscrit.es) a placé le LR en tête (avec 1415 voix), mais avec une très courte avance de 16 voix (voir Carte n°3) sur le NFP arrivé en seconde position (1399 voix). Les électeurs ont manifestement voté pour un Français du Liban, Lucas LAMAH, qui leur est proche ; la casquette LR devenant alors secondaire.

      La seconde anomalie concerne le pôle de Douala au Cameroun, qui bénéficie d’un effet de proximité géographique au profit du NFP (voir Carte n°2). Alors que ce fief électoral de la « Droite française à l’étranger » n’avait jamais voté majoritairement à gauche, il arrive en tête sous les couleurs du NFP et avec 48 voix d’avance. Douala a favorisé la proximité de Elsa DI MÉO, qui a rappelé au cours de sa campagne qu’elle est résidente à Yaoundé. Le NFP est aussi arrivé en tête à Yaoundé (43% des votes), avec 98 voix d’avance sur ENS (voir Carte n°3).

      Une anomalie similaire s’observe à Amman en Jordanie où le NFP est arrivé largement en tête (63% des votes) en obtenant 240 voix, soit 150 voix de plus que ENS arrivé en seconde position (voir Carte n°3). Ce pôle situé dans la capitale de la Jordanie a également bénéficié d’un effet de proximité géographique : Anne-Claire YAEESH, la suppléante de Elsa DI MÉO résidant sur place.

      Enfin une anomalie à Sanaa, au Yémen, plaçant Nathalie MAZOT (DIV-gauche) en tête, ne peut pas être considérée comme significative dans la mesure où il n’y a eut qu’une seule voix exprimée.

      L’enjeu du Liban dans la victoire du NFP

      L’enjeu électoral entre les deux blocs politiques en présence dans cette circonscription n°10 des Français établis hors de France est au Liban, où les deux candidates sont finalement assez proches en nombre de voix, avec une courte avance pour ENS dans un duel qui l’oppose au NFP.

      Deux éléments vont par ailleurs jouer dans le duel du second tour entre Elsa DI MÉO, la candidate la plus représentée et la plus représentative sur l’ensemble du territoire et Amal Amélia LAKRAFI, la candidate sortante en mandat depuis 2017.

      Le premier est le report des voix de l’extrême droite qui n’est arrivée en première ou en deuxième position dans aucune des circonscriptions des Français de l’étranger. Le second élément tient à la bascule des électeurs français du Liban pour ENS, alors qu’ils avaient placé LFI en tête aux élections européennes de 2024 (trois semaines auparavant). Majoritairement favorables à la cause palestinienne, leur vote au second tour traduira aussi leurs inquiétudes face à  une extension du conflit Gaza-Israël sur leur territoire.

      Ces élections législatives françaises étant très politiques, en raison de la position de l’extrême droite Française à la porte de Matignon, il serait vraiment dommage que les Français qui sont largement établis en Afrique et dans la péninsule arabique ne permettent pas au NFP, déjà en tête avec 48 circonscriptions et 253 voix d’avance, de l’emporter.

      Au-delà des résultats de ce premier tour des législatives anticipées dans la 10ème circonscription, la singularité du vote des Français de l’étranger paraît remarquable dans un contexte national qui semble porter l’extrême droite Française aux portes de Matignon. La remise en cause de la binationalité et de l’immigration rendent particulièrement vulnérables les 3,5 millions de concitoyens et leurs familles, tout en remettant en lumière les valeurs défendues par la gauche.

      À vos votes !

      Citation suggérée par les autrices :
      Françoise Bahoken, Kalliopi Ango Ela et Muriel Samé Ekobo (05 juillet 2024), Cartographie d’un duel électoral NFP-ENS : le cas de la 10e circonscription des Français de l’étranger, Carnet (neo)cartographique. Mis en ligne le 05 juillet 2024 à l’adresse [https:]

      Françoise Bahoken

      Géographe et cartographe, Chargée de recherches à l'IFSTTAR et membre-associée de l'UMR 8504 Géographie-Cités.

      More Posts

    • sur Déplacements dans Paris x JO et Para 2024

      Publié: 4 July 2024, 7:22am CEST par Caroline Chanlon

      L’organisation des Jeux Olympiques et Paralympiques à Paris cet été pose la question des déplacements parisiens. Chez Oslandia, le mot d’ordre est très clair : aucun déplacement dans Paris ! Et si la rencontre « physique » est indispensable, nous pouvons proposer à nos clients et partenaires d’utiliser des locaux dans d’autres villes, Lyon par exemple.

      Ensuite, il s’agit de bien cerner ce qui est indispensable ou pas … Pour rappel, Oslandia fonctionne en full remote et cela depuis près de 15 ans ! L’équipe est répartie dans la France entière, tout comme nos clients, et cela ne nous a jamais empêché de livrer de beaux projets ?

      En parlant d’ailleurs de beau projet et de JO, la plateforme JOPTIMIZ, composée de plusieurs applications, va prochainement permettre de fournir des services de calcul d’itinéraires adaptés aux contraintes réglementaires mises en place par la Préfecture pendant l’été et effervescence des JO et Para JO.

      Oslandia a plus spécifiquement collaboré sur l’outil Itineriz en partenariat avec ALLOHOUSTON, notre partenaire qui a également travaillé sur CirQliz, un outil qui permet aux entreprises de faire valider leurs véhicules avant les JO, délivrant un QR code par véhicule pour faciliter les contrôles de police en zone bleue.

      Itineriz permet de son côté d’adapter son trajet en fonction des restrictions et dérogations liées aux Jeux 2024 et à la ZFE de votre ville.

      Voilà des applications qui seront bien utiles cet été ?

    • sur Oslandia x Open Source Experts

      Publié: 2 July 2024, 6:43am CEST par Caroline Chanlon

      Open Source Experts est un guichet unique fédérant les acteurs de l’open source en France dans un objectif de développement de l’écosystème et d’accès à de nouveaux marchés.

      OSE centralise les experts open source, offrant ainsi un interlocuteur unique pour les donneurs d’ordres.

      Ce regroupement des acteurs open source a déjà montré ses capacités avant même l’officialisation OSE, par exemple pour le marché de support open source de la CNAM

      Oslandia est fière de faire partie des experts « partenaires qualifiés » open source avec OSE, pour accompagner toutes les organisations à leurs usages et migrations vers des SIG libres !

      Bravo pour cette initiative portée par nos confrères Arawa, BlueMind, FactorFX, Inno3 et Worteks

    • sur Neogeo est ravie d’annoncer la date de ...

      Publié: 27 June 2024, 4:45pm CEST par admin

      Neogeo est ravie d’annoncer la date de son tout premier séminaire dédié à OneGeo Suite, la solution web open source permettant de partager, diffuser et valoriser les données cartographiques d’un territoire.

      Il s’agit d’une opportunité unique aussi bien pour les utilisateurs, que pour ceux qui contribuent aux développements mais aussi les passionnés qui veulent découvrir la solution, les dernières fonctionnalités mises en œuvre, d’approfondir leurs connaissances, et de se connecter avec les différents membres de la communauté.

      Cet événement promet d’être un véritable catalyseur pour ceux qui souhaitent exploiter tout le potentiel OneGeo Suite.

      Ce séminaire a pour but de :
      • Présenter les nouvelles fonctionnalités : Découvrez les innovations et mises à jour récentes de OneGeo Suite,
      • Favoriser les échanges : Échangez avec les autres utilisateurs, les développeurs, et experts du domaine,
      • Inspirer et motiver : Bénéficier et partager de retours d’expériences des utilisateurs et des cas d’utilisation inspirants,
      • Fournir des échanges approfondis : Au travers d’ateliers sur les nouveaux usages, services, connecteurs, la visualisation des données, les performances et limites actuelles des plateformes OGS…
      Programme de la Journée Pourquoi Participer ?

      Participer à ce séminaire vous permettra de :

      • Accéder à des informations exclusives : Soyez parmi les premiers à découvrir les dernières fonctionnalités et la road map de la solution,
      • Améliorer vos connaissances : Grâce aux présentations et aux ateliers,
      • Réseauter avec les membres de la communauté du secteur : Élargissez votre réseau et partagez des idées avec d’autres utilisateurs et experts.
      • Obtenir des réponses à vos questions : Interagissez directement avec les développeurs et les formateurs de la solution.
      Inscription

      Pour participer à ce séminaire exceptionnel, inscrivez-vous dès maintenant –> lien.

      Les inscriptions sont gratuites et obligatoires, ne tardez pas à réserver votre place.

      En conclusion

      Ne manquez pas cette occasion, en amont des Géodatadays 2024, afin de consolider vos connaissances et de renforcer votre utilisation de OneGeo Suite. Rejoignez-nous pour une journée riche en apprentissage, en échanges et en inspiration.

      Nous sommes impatients de vous accueillir et de partager ce premier séminaire OneGeo Suite à vos côtés.

      L’équipe OneGeo Suite

    • sur Comparaison des solutions de collecte de terrain : QField et LandSurveyCodesImport (LSCI)

      Publié: 27 June 2024, 7:11am CEST par Loïc Bartoletti
      Introduction

      Chez Oslandia, nous offrons des services pour la gestion des réseaux, les collectivités et la production de plans de corps de rue simplifiés (PCRS). Parmi ceux-ci, nous proposons des assistances et développements pour les solutions de collecte de terrain. Dans le billet précédent, nous faisions état de ces solutions. Cet article explique les différences entre deux solutions de collecte : QFIELD et LandSurveyCodesImport (LSCI). Nous sommes, en même temps, partenaires d’OpenGIS.ch, éditeur de QField, et les développeurs de LandSurveyCodesImport (LSCI). Pourquoi proposer deux outils ?

      QField : Modification directe des données

      QField est une application mobile développée autour de QGIS. Conçue pour une utilisation intuitive sur le terrain, elle permet aux utilisateurs de :

      • Modifier les données SIG en temps réel : les relevés et modifications peuvent être effectués directement sur le terrain et synchronisés immédiatement avec la base de données principale.
      • Accès facile aux informations : les utilisateurs ont un accès direct aux cartes et aux données géospatiales, ce qui permet une prise de décision rapide et informée.
      Cas d’utilisation de QField
      • Cartographie environnementale : des naturalistes peuvent utiliser QField pour relever des données sur la faune et la flore, mettant à jour instantanément la base de données.
      • Gestion des infrastructures : les techniciens des services publics peuvent enregistrer et modifier les informations sur les infrastructures directement sur le terrain.
      LandSurveyCodesImport (LSCI) : Saisie de points et codes pour topographes

      LandSurveyCodesImport (LSCI) est un plugin QGIS destiné principalement aux topographes. Il permet la saisie de points et de codes à partir de carnets de terrain, suivi d’un traitement et d’une intégration dans QGIS. Ce processus est particulièrement utile pour :

      • La saisie structurée des données : les topographes peuvent enregistrer des points précis et des codes descriptifs, facilitant ainsi le traitement ultérieur des données.
      • Intégration avec les outils de topographie traditionnels : compatible avec les stations totales et les appareils GNSS, LSCI facilite la transition des données de terrain vers le SIG.
      Cas d’utilisation de LSCI
      • Topographie urbaine : les équipes de topographie peuvent collecter des données détaillées sur les structures urbaines et les intégrer facilement dans QGIS pour une analyse approfondie.
      • Géodésie et levés cadastraux : les géomètres et topographes peuvent utiliser LSCI pour traiter les relevés topographiques et produire des cartes précises 3D.
      Intégration avec d’autres outils

      LSCI s’intègre dans une suite d’outils spécialisés :

      • TotalOpenStation : Utilisé pour la conversion des carnets de terrain en données numériques.
      • Topaze : Outil de calcul topométrique pour une analyse détaillée des relevés.

      Leurs utilisations conjointes permettent de créer une chaîne de traitement des données efficaces pour intégrer les données capteur GPS à la base de données.

      Complémentarité des outils

      Bien que QField et LSCI semblent répondre à des besoins différents, ils peuvent être utilisés dans le même service pour une gestion complète des données de terrain. QField permet une mise à jour immédiate et directe des données, tandis que LSCI offre une solution structurée pour les relevés topographiques.

      Contrôle qualité avec QompliGIS

      Enfin, n’oublions pas de vérifier la donnée ! Pour cela, nous poussons QompliGIS qui est un outil pour le contrôle qualité des données SIG. Il permet de s’assurer que les plans produits sont conformes aux normes requises, garantissant ainsi la fiabilité et la précision des informations géospatiales.

      Conclusion

      QField et LandSurveyCodesImport (LSCI) répondent à des besoins spécifiques pour la saisie terrain. Chez Oslandia, nous proposons notre expertise et nos services de développement pour intégrer ces solutions dans vos processus et répondre à vos exigences spécifiques.

      Vous avez envie d’intégrer ces outils à vos SI ? Vous souhaitez co-développer de nouvelles fonctionnalités ? Contactez-nous !

    • sur Méfiez-vous des cartes … électorales

      Publié: 26 June 2024, 3:48pm CEST par Françoise Bahoken et Nicolas Lambert

      Billet à retrouver également sur l’humanité.fr.

      Au lendemain des élections européennes de 2024 et de l’annonce de la dissolution de l’Assemblée Nationale par le président de la République française, le pays fut plongé dans une période d’instabilité politique profonde. Le Rassemblement National (RN) est en effet arrivé en tête dans plus de 32 000 communes sur 35 000. C’est le fameux chiffre de 93 % qui n’a cessé d’être martelé dans de nombreux média pour illustrer la victoire objective et éclatante du RN aux européennes, ainsi que son ancrage dans la population française. Les cartes produites furent, elles aussi, explicites : des images teintées de bleu ou de brun1 qui semblent démontrer que l’arrivée de Jordan Bardella à Matignon n’est plus qu’une question de temps.

      Ces images cartographiques reflètent-elles vraiment le rapport de force qui s’instaura entre les formations politiques françaises, dans la perspective des élections législatives ?

      Pour analyser cela, nous proposons d’examiner la répartition des voies obtenues par le Rassemblement National à ces élections européennes, en les projetant dans les 577 circonscriptions électorales. Nous les mettons ensuite en regard des forces de gauche rassemblées aujourd’hui dans le Nouveau Front Populaire (NFP).

      Les données
      Les données consultées correspondent aux résultats électoraux finalisés de la France aux élections européennes de 2024. Communiquées par le Ministère de l’Intérieur français, le détail de ces résultats est librement accessible sur le site data.gouv.fr2. Les variables que nous avons mobilisées sont celles qui portent sur le nombre d’inscrits et sur le nombre de votants par circonscription électorale, à l’échelle géographique des circonscriptions.

      Souhaitant par ailleurs cartographier les votes obtenus par le RN en les mettant en regard avec cette nouvelle construction politique qu’est le Nouveau Front Populaire (NFP), qui n’existait certes pas au moment des élections européennes, nous avons construit une nouvelle variable (NFP) à l’échelle des circonscriptions. Cette variable NFP correspond logiquement à la somme du nombre d’inscrits et du nombre de voix obtenus par les partis Europe Écologie les verts (EELV), Parti communiste français (PCF), Parti socialiste (PS) et La France insoumise (LFI).

      À noter que le même regroupement n’a pas été fait entre les partis de l’extrême droite française, car ces derniers n’ont pas fait l’objet, à notre connaissance, d’une alliance générale et au niveau national comparable à celle mise en place par la gauche, pour former le NFP. Compte tenu de ces choix, l’analyse cartographique proposée focalise l’attention sur le vote RN appréhendée comme l’une des deux grosses forces politiques actuellement en présence, la seconde étant le NFP ; les autres partis, formations et groupements politiques français étant regroupées dans une catégorie « Autres ».

      Sur la première carte, nous colorons en bleu marine les circonscriptions dans lesquelles le RN est arrivé en tête. Cette image décrit factuellement la large victoire du RN, effectivement arrivé en première position dans 457 circonscriptions (soit 79 % de l’ensemble), contre 120 circonscriptions (soit 21%) pour l’ensemble des autres forces politiques. Si l’on considère la surface des territoires ainsi représentés, le RN est arrivé en tête dans 85 % du territoire national. Un véritable raz de marée…

      Cette carte n’est pas sans rappeler une autre carte célèbre brandie par Donald Trump le 1er octobre 2019 sur le réseau social Twitter. Alors en plein procédure d’impeachment suite à l’affaire ukrainienne, Trump brandit cet argument cartographique pour revendiquer une légitimité populaire, celle de l’Amérique profonde et des arrière-pays. Mais il y a un hic.

      Si la carte était recouverte de rouge, la couleur du parti Républicain de Donald Trump, les grandes villes, elles, ne votèrent pas pour lui. Trump fut en réalité élu avec 3 millions de voix de moins qu’Hillary Clinton et cela, malgré une carte totalement bardée de rouge. Cette carte représenta donc l’illusion d’une victoire. Qu’en est-t-il de celle présentée ci-dessus ?

      Depuis les élections européennes, la situation politique en France a changé. Les forces de gauche se sont unies dans le Nouveau Front Populaire (NFP), seul moyen de contester la suprématie du RN dans nombre de circonscriptions électorales.

      C’est pourquoi nous proposons une seconde carte considérant cette nouvelle force politique inédite, élaborée au lendemain des élections européennes. Comme sur la carte précédente, les circonscriptions où le RN est arrivé en tête sont teintées de bleu marine ; les circonscriptions gagnées par le NFP sont maintenant représentées en rouge, tandis que celles des autres forces politiques françaises sont toujours représentées en gris.

      Il est intéressant de pouvoir visualiser la manière dont les résultats cartographiques se contrastent lorsque la gauche est unie au sein du NFP. Si la victoire du RN demeure indéniable, celui-ci arrive en tête dans (seulement) 313 circonscriptions (55 % de l’ensemble), comme indiqué sur le diagramme. Le NFP remporte, quant à lui, et à lui seul, 259 circonscriptions (45 % de l’ensemble) ; les autres formations politiques sont arrivées en tête dans seulement 8 circonscriptions. L’union fait la force. Deux blocs se font face.

      Mais, parce qu’il y a un mais, cette représentation cartographique n’est pas non plus sans poser quelques problèmes de perception. En effet, le découpage des circonscriptions électorales est réalisé de telle sorte que chacune d’elles rassemble un nombre comparable de votants. Ainsi, en zone urbaine dense, les circonscriptions présentent de très petites tailles à l’inverse des zones rurales où elles peuvent s’étendre sur des kilomètres. Leurs formes géographiques et leurs surfaces sont donc nécessairement hétérogènes. En utilisant ce découpage électoral comme support de la représentation cartographique, la carte survalorise donc, par construction, la perception des résultats obtenus dans les territoires peu denses qui sont caractérisés par leur grande taille, créant un effet d’absorption visuelle. Autrement dit, on ne voit qu’elles.

      Pour y remédier, nous proposons d’assimiler chaque circonscription à un cercle dont la surface est proportionnelle au nombre d’inscrits. Pour des questions de lisibilité, les cercles sont écartés les uns des autres afin d’éviter leurs superpositions puis sont teintés, comme précédemment, en fonction du bloc politique arrivé en tête. Le résultat obtenu s’éloigne nettement de la carte de départ, puisqu’on obtient ici une carte beaucoup plus réaliste où la perception des couleurs de chacune des circonscriptions exprime fidèlement le rapport des forces RN et NFP.

      Si le RN reste malgré tout en tête dans 55 % des circonscriptions et semble bien placé pour remporter les élections législatives qui se profilent, c’est sans compter sur le fait que les résultats électoraux sont le reflet de dynamiques politiques et sociales et non un simple bilan comptable.

      Aussi proposons-nous une variante de la carte précédente où nous représentons en jaune les circonscriptions dans lesquelles l’écart de voix entre le NFP et son principal adversaire est de moins de 5 %. En d’autres termes, les circonscriptions électorales où rien n’est joué.

       

      Dans cette configuration, 18 % des circonscriptions semblent très indécises et le RN ne semble plus en position de force que dans 45 % des cas – ce qui est déjà beaucoup trop. Rien n’est cependant joué. S’il ne nous est pas possible de prévoir à ce stade la manière dont vont se dérouler les élections législatives, dans ce contexte politique inédit, nous pouvons cependant affirmer que le combat n’est pas perdu, comme le laissait envisager la carte initiale qui était, disons-le, désespérante. La participation au scrutin tout comme le jeu complexe des reports de voix au second tour seront en effet déterminants.

      Alors méfiez-vous des représentations cartographiques qui vous plongent dans l’apathie et rappelez-vous que les cartes ne sont jamais neutres. Mobilisons-nous, toutes et tous ensemble les 30 juin et 7 juillet prochain, pour faire gagner le Nouveau Front Populaire.

      1 [https:]

      2 [https:]

      Données et code source : [https:]]

      Ils en parlent …

      Géoconfluence (5 juillet 2024) Quelles cartes pour comprendre les élections de 2024 en France ?

      Maps Mania (8 juillet 2024) France Defeats the Far-Right

      Françoise Bahoken et Nicolas Lambert

      More Posts - Website

      Follow Me:
      Twitter

    • sur [Témoignage client] Sylvain Petiteau, géologue expert en contrôle géologique chez Orano

      Publié: 25 June 2024, 7:07am CEST par Caroline Chanlon

      Sylvain Petiteau est géologue de formation et géologue expert en contrôle géologique chez Orano. Après des missions au Kazakhstan, en Mongolie et au Niger, il travaille aujourd’hui sur l’estimation des ressources géologiques et le contrôle qualité des mineurs. Dans ce contexte Sylvain Petiteau collabore avec Oslandia sur le projet CanOP permettant d’identifier la teneur en uranium des minerais sur un site d’extraction au Niger.

      Retour sur la collaboration :

      Il y a quelques années, nous avons initié un projet d’innovation CanOP  qui s’est converti en projet d’industrialisation. Il s’agissait de remplacer une technologie ancienne sur un site minier de plus de 50 ans d’existence par un nouveau concept technologique. L’objectif était de nous aider à améliorer la sélectivité minière (notre capacité à séparer les roches minéralisées chargées en Uranium des roches stériles) notamment en ajoutant la géolocalisation aux mesures.

      Le dispositif technique consiste en une perche métallique équipée de trois composants : deux cristaux qui effectuent des mesures de la radioactivité et un GPS différentiel avec une précision de l’ordre du millimètre.

      Cette canne est connectée à une tablette en bluetooth qui envoie des informations géolocalisées de la mesure de la radioactivité. Les informations reçues par la tablette sont traitées par l’application CtrlCraft développée par Oslandia. Plusieurs cannes peuvent opérer en parallèle à différents endroits. Les données acquises sont ensuite regroupées et enregistrées dans une base de données centrale afin de suivre la production. Le croisement de ces données avec nos prévisions de production nous permet également d’améliorer nos modèles 3D de la teneur.

      CanOP participe à la diminution de la co-activité. Une fois les mesures réalisées par les aides prospecteurs, ils peuvent se mettre en retrait de l’activité d’extraction pour guider à distance le travail de la pelle en suivant l’exploitation sur l’application CtrlCraft. On gagne énormément en sécurité.

      Oslandia est disponible, à l’écoute et s’est bien adapté à nos demandes en conciliant les possibilités de développement, notamment de l’outil QGIS, aux besoins qu’on leur décrit. Le projet s’est monté en mode agile, la solution évoluant avec nos besoins. Nous avons de bonnes interactions avec Jacky notre interlocuteur principal sur le développement.

    • sur Corpo d’été !

      Publié: 24 June 2024, 11:35am CEST par Caroline Chanlon

      Oslandia se veut une structure atypique, avec des valeurs affirmées basées sur l’autonomie, la confiance et l’ouverture.

      Nous avons misé depuis la création d’Oslandia sur un fonctionnement en 100% télétravail avec des collaborateurs répartis dans la France entière. Pour une organisation libre des missions et de la journée de travail !
      On a d’ailleurs évoqué le sujet du télétravail récemment dans un billet.

      Mais nous avons aussi grand plaisir à nous retrouver, c’était le cas en juin pour notre Corpo d’été :

      Les Corpos sont l’occasion de partager des moments privilégiés et d’échanger sur des sujets de fonds. Pendant ces journées où nous avons de nouveau été magnifiquement accueillis à la Tour d’Oncin, nous avons plus spécialement travaillé sur notre offre de formation, fait des ateliers DuckDB, Dagster, PostGIS 3D, discuté de notre utilisation de l’IA ou des participations aux conférences …

      Sans oublier les moments de partage autour d’une dégustation de vin AOC Bugey, une activité Escape Game ou encore le sauna du lieu !

    • sur Latitudes et longitudes géographiques dans l’Encyclopédie de Diderot et d'Alembert

      Publié: 23 June 2024, 6:24pm CEST


      Le dossier de Colette Le Lay sur le site ENCCRE se propose d'étudier les latitudes et longitudes fournies par les articles de géographie de l’Encyclopédie de Diderot et d'Alembert. Il s'agit d'en déterminer les contributeurs et les sources à partir d'un important corpus. Librement accessible, l’Édition Numérique, Collaborative et CRitique de l’Encyclopédie (ENCCRE) met à disposition les connaissances des chercheurs d’hier et d’aujourd’hui sur l’Encyclopédie, en s’appuyant sur un exemplaire original et complet de l’ouvrage conservé à la Bibliothèque Mazarine, intégralement numérisé pour l’occasion (soit 17 volumes de textes et 11 volumes de planches). Le dossier s'ouvre par une très belle projection de Jacques Cassini (1696) figurant la Terre vue du pôle Nord avec l'ensemble des méridiens disposés tout autour.

      Planisphère Terrestre où sont marquées les Longitudes de divers Lieux de la Terre par Mr. de Cassini  (1696)
      Source : Gallica


      Le choix de cette projection azimuthale polaire de Jacques Cassini est l'occasion d'aller découvrir la très belle représentation du périple de Magellan autour du monde par le cartographe Scherer (1702). Heinrich Scherer (1628-1704), à la fois mathématicien et cartographe, a développé une œuvre colossale qui a influencé la cartographie européenne du XVIIIe siècle. Plusieurs de ses atlas sont à découvrir sur le site de la Bibliothèque numérique de Munich. Au XVIIe siècle, les parallèles et les méridiens apparaissent comme les lignes remarquables pour se repérer à la surface du globe. Mais les coordonnées géographiques restent encore assez imprécises. Déterminer la longitude va devenir un grand enjeu au XVIIIe siècle.

      Heinrich Scherer, Geographia Artificialis Sive Globi Terraquei Geographice Repraesentandi Artificium, 1703(source : Bibliothèque numérique de Munich)


      La longitude et la latitude tendent à s’imposer de plus en plus fréquemment dans les dictionnaires et encyclopédies à partir de la seconde moitié du XVIIIe siècle comme en atteste l'étude conduite par Denis Vigier, Ludovic Moncla, Isabelle Lefort, Thierry Joliveau et Katherine McDonough : « Les articles de géographie dans le Dictionnaire Universel de Trévoux et l’Encyclopédie de Diderot et d’Alembert » (Revue Langue française, 2022/2, n° 214). Selon les auteurs, c'est avec F. L. Vosgien (1747 et éditions suivantes) que l’on trouve la mention quasi-systématique de longitude et de latitude, modèle que réutilise D. Diderot dans l’Encyclopédie.

      Dictionnaire géographique portatif ou Description de tous les royaumes, provinces, villes, patriarchats, éveschés, duchés, comtés, marquisats des quatre parties du monde par M. Vosgien (1757). Source : Gallica



      Pour Paris par exemple, l'Encyclopédie de Diderot et d'Alembert indique une latitude de 48° 51' 20''. On y voit la mention de deux longitudes différentes, l'une notée Long. orient. 20° 21' 30", l'autre dite Long. de Paris à l'observatoire de Paris suivant Cassini 19° 51' 30'' : preuve qu'il y avait plusieurs manières d'indiquer la longitude à l'époque. Dans les deux cas, on observe que le point d'origine reste l'île de Fer qui servait encore de référence au cours du XVIIIe siècle.


      Comme l'explique le dossier de Colette Le Lay sur le site de l'ENCCRE, déterminer la longitude constitue un enjeu considérable au XVIIIe siècle. Le méridien de Paris comme méridien d'origine va s'imposer progressivement en France à partir des Cassini, sans qu'il s'agisse d'une référence unique. Pour la longitude, l'Encyclopédie prend comme origine l'île de Fer dans l'Atlantique (estimée à l'époque à environ 20° ouest de Paris) sans pour autant mentionner explicitement un méridien origine.

      Méridien de l'île de Fer dans l'Atlantique


      Outre le Dictionnaire géographique portatif de Vosgien, Jaucourt qui a rédigé avec Diderot les articles de géographie de l'Encyclopédie s'est inspiré vraisemblablement du Dictionnaire de Trévoux (1752). Celui-ci comporte à la fin de l'ouvrage un tableau des coordonnées géographiques de tous les lieux et auteurs cités. La longitude y est indiquée en degrés, minutes, secondes (D. M. S.) par rapport à l'île de Fer ainsi que par rapport au méridien de Paris en heures, minutes, secondes (H.M.S.).

      Tableau des coordonnées géographiques des noms de lieux (source : Dictionnaire de Trévoux, 1752)


      Il fallut attendre la fin du XVIIIe siècle pour stabiliser les mesures de longitude. En 1789, l'expédition de Verdun, Borda et Pingré plaça définitivement l'île de Fer à 20°2’31" de Paris. Au XIXème siècle, la carte d'état major ne se réfère plus qu'au méridien de Paris et les cartes topographiques des autres États à leur observatoire national. C'est le développement des transports et la nécessité d'adopter une heure universelle et des fuseaux horaires avec des décalages d'heures rondes pour les heures locales qui vont aboutir au choix du méridien international de Greenwich en 1884. La France résistera jusqu'en 1911 (source : « Quelle est la différence entre le méridien de Greenwich et le méridien de Paris ? », IGN)

      Articles connexes

      L'histoire par les cartes : il a fallu plus de 25 ans à la France pour fixer les coordonnées géographiques et relever les premières cartes des Seychelles au XVIIIe siècle
      Derrière chaque carte, une histoire. La cartographie du détroit de Magellan entre science et imaginaire

      La projection Equal Earth, un bon compromis ?

      Projections cartographiques
      Cartes et atlas historiques


    • sur Question du mois chez Oslandia : Quel est mon intérêt à financer de l’open source ?

      Publié: 21 June 2024, 6:24am CEST par Caroline Chanlon

      Chez Oslandia, nous croyons fermement aux multiples avantages du financement de l’open source. Voici quelques éléments clés qui mettent en lumière les raisons pour lesquelles cela constitue une stratégie judicieuse pour toute organisation :

      Orienter la roadmap

      En finançant des projets open source (développement de fonctionnalités, corrections de bugs…), vous avez la possibilité d’influencer la feuille de route du développement. Vos besoins spécifiques sont mieux pris en compte, assurant ainsi que les évolutions du projet répondent à vos attentes.

      Maintenance optimisée

      L’un des grands avantages de l’open source est que la maintenance et les améliorations futures sont prises en charge par l’ensemble des contributeurs de façon mutualisée. Cela réduit la charge de travail globale, et particulièrement la charge de maintenance interne du code produit par votre financement, et assure ainsi une évolution continue du logiciel en respectant le niveau de qualité attendu.

      Visibilité et communication

      En contribuant financièrement à l’open source, vous bénéficiez d’une visibilité accrue. Les contributions sont relayées au sein des communautés, offrant ainsi une publicité positive et renforçant votre image de marque, tant auprès de la communauté qu’auprès des autres organisations utilisatrices. Cette communication produit également un effet « boule de neige » où d’autres organisations suivront votre exemple, et vous bénéficierez de leurs financements dans le futur.

      Reconnaissance communautaire

      La reconnaissance par la communauté open source est un atout majeur. Être perçu comme un acteur clé et un soutien de l’open source peut renforcer votre crédibilité et votre influence, solidifiant l’écosystème de votre socle technologique. Cette reconnaissance facilite par la suite les échanges avec la communauté et les réponses que celle-ci pourra apporter à vos problématiques.

      Avantages RH

      Enfin, investir dans l’open source est un levier important pour attirer et retenir les talents. Les développeurs sont attirés par des entreprises engagées dans l’open source, perçues comme innovantes, tournées vers l’avenir et porteuses de sens dans le travail.

      En conclusion, financer l’open source n’est pas seulement une question de philanthropie technologique, c’est aussi une stratégie d’entreprise solide qui apporte de nombreux bénéfices tangibles. Chez Oslandia, nous sommes fiers de promouvoir et de soutenir l’open source, car nous croyons en son potentiel à transformer positivement les pratiques et les technologies. C’est aussi le cas de nos clients et partenaires, et ensemble nous faisons progresser les technologies du libre, le bien commun, le tout avec une raison d’être au travail que nous fournissons.

    • sur Le programme CHOROS de Tobler (1973)

      Publié: 20 June 2024, 1:17pm CEST par Françoise Bahoken

      Préambule : L’un des objectifs du programme Tribute to Tobler (TTT) consiste à permettre de remobiliser des méthodes d’analyse spatiale et de cartographie proposées par Waldo Tobler, en s’appuyant sur ses textes, ses notes, ses programmes informatiques et ses images.

      Les différentes propositions théoriques, méthodologiques, algorithmiques et j’en passe que Tobler a légué à la communauté ont souvent été illustrés par des données analysées et illustrées à l’aide d’outils et de programmes confectionnés par l’auteur lui-même.

      Tobler a par ailleurs mis à notre disposition dans une extraordinaire démarche d’ouverture de ses programmes, ses données et ses images, qu’il est dès lors possible de remobiliser aujourd’hui.

      Atteindre cet objectif de reproductibilité d’analyses spatiales anciennes parfois enterrées, souvent complexes dans leur exposé et dans leur mise en œuvre suppose, d’une part, une relecture des textes (articles, notes de recherches …) concernés et d’autre part, une reprise en main (une refactorisation) ou plutôt le re développement des programmes et outils mobilisés dans le ou les textes en question, dans les langages contemporains les plus usuels. Sans cela, il ne sera pas possible de diffuser son travail ni de progresser dans le développement de méthodes de l’analyse géographique pourtant très utiles à d’autres pans de la connaissance qui utilisent des données localisées.

      Tobler m’avait dit qu’en appui de propositions théoriques ou méthodologiques que l’on pouvait faire (c’était à l’époque dans le cadre de ma thèse), il était nécessaire d’une part, de les formaliser mathématiquement et d’autre part, de proposer des programmes permettant de les mettre en œuvre. En l’absence de compétences dans l’un ou l’autre domaine de son champs de compétences, il fallait collaborer avec ceux qui savent, ceux qui possèdent les dites compétences. Je m’égare. Revenons à nos moutons.

      Pour pouvoir (re)mobiliser des méthodes et outils d’analyse qui nous apparaissent fondaentaux, il convient au préalable de comprendre de quoi il en retourne, en commençant par les déconstruire pour pouvoir mieux les reconstruire ailleurs, j’entends dans d’autres contextes.

      C’est le cas du programme CHOROS de Tobler, un outil permettant de réaliser des cartes chroplèthes sans intervalles – dont il a déjà été question.

      CHOROS

      Tobler a en effet proposé en 1973 – lire la traduction française réalisée par Laurent Jégou dans le cadre de TTT – de construire des cartes choroplètes sans partitions des données numériques (selon les quantiles, standardisation, etc.). Attention : cela ne signifie pas pour autant qu’il ne fallait pas discrétiser les données avant de les représenter – puisqu’elles sont continues -, mais plutôt que la discrétisation devrait s’appuyer non pas sur des paramètres de la série (moyenne, médiane, …), mais sur une valeur unique d’intensité de teinte pour chaque valeur numérique, sur un “ombrage” unique comme l’indique Peterson (1999). C’est ce que l’on fait aujourd’hui intuitivement lorsqu’on nuance une teinte en fonction de la quantité de noir qu’on ajuste en fonction de l’intervalle de classe.

      Le résultat produit des motifs spatiaux qui apparaissent plus ou moins perceptibles en fonction du nombre de valeurs, mais malgré son intérêt opérationnel, ils n’ont pas d’emblée convaincue la communauté de l’époque.
      Dobson est arrivé à la conclusion selon laquelle le résultat d’une choroplèthe sans classe était trop chargé, et donc peu lisible. Peterson et Müller ont quant à eux testé cette méthode en 1979, après son introduction par Tobler, avant d’en développer des versions adaptées pour d’autres environnement.

      Comment ça marche ?

      Le programme CHOROS mobilise un opérateur linéaire de voisinage pour créer des cartes choroplèthes (Application of linear Neighborhood Operator to Choropleth Maps), en utilisant la méthode de réagrégation définie par Tobler. Le lissage des contours dépend des masses utilisées dans un autre outil : le programme HAVE (je n’en sais pas plus à ce stade).

      Le programme a été développé en Fortran par Tobler lui-même, alors qu’il était à l’Université du Michigan (Ann Arbor). Il a ensuite été redéveloppé à partir de l’automne 1985 par Michael P. Peterson, bien connu pour ses travaux sur la cartographie animée, pour l’adapter à l’environnement Macintosh.

      MacCHORO

      La première version du MacChoro de Peterson est publiée en 1986 et apparaît être le tout premier programme de cartographie thématique pour Mac.

      L’outil permettait de réaliser des cartes choroplèthes fondées sur les discrétisations usuelles ainsi que des non classées (numériquement) en seize classes ou nuances de teintes (de niveaux de gris, faut-il le préciser ?), là ou les autres méthodes de discrétisation plus classiques – également proposées dans l’outil – autorisaient une partition de deux à seize classes (à des fins de comparaison).

      A partir de 1989, MacChoro II v1, proposée sur un “Big Mac” (512 K avec deux lecteurs de disquettes et aucun disque dur), fut doté d’une partie animée, suivant la proposition de Tobler. Rappelons que  l’animation était à l’époque l’un des trois paradigmes de la cartographie définis par l’auteur, aux côtés des approches discrètes et continues. A noter que cette v.1 fut fournie avec des données et le fond de carte des États-Unis d’Amérique pour une cartographie à réaliser en noir et blanc.

      L’outil innove en plusieurs aspects. L’environnement propose huit menus (voir figure 1), quatre sous menus : Map file, Convert, poly Extract et Classify (écart-type, intervalles égaux, quantiles et seuils naturels) et quatre fenêtres utiles : une fenêtre graphique principale et une autre proposant une vue globale et réduite ; une troisième fenêtre  pour visualiser les données et une quatrième fenêtre de sortie des statistiques sous la forme de texte

      Figure 1. Interface utilisateur de MacChoro II.

      Source : MacChoro II overview.

      MacChoro II v.2 créa une nouvelle surprise en ajoutant des icônes à son interface, pour :
      – symboliser les méthodes de discrétisation proposées qui passent au nombre de cinq, auxquelles s’ajoutent la “discrétisation non classée” ;
      – choisir un nombre de classe entre 2 et 16 ;
      – dessiner la carte

      Figure 2. Interface de discrétisation de MacChoro II v2.

      Source : wikipédia.

      D’après Peterson (1999), l’interface de Mac Choro II se distingua en outre à l’époque pour les aspects liés à l’interactivité de la cartographie ou de l’utilisateur avec la carte : la présence de “légendes actives permettait” à l’utilisateur de “contrôler la méthode de classification” utilisée pour discrétiser non seulement une mais plusieurs variables.

      Figure 3. Interfaces de,discrétisation et de sélection des variables d’intérêt

      Source : Michael Peterson (1999)

      La carte réalisé est ensuite transférable via le Presse papier (Clipboard) à d’autres programmes pour Macinstosh de l’époque (MacDraw II, Super Paint II, MacWrite II, Word and PageMager) pour voir sa conception  finalisée avant d’être diffusée.

      Si vous êtes intéressé.e d’en savoir plus sur MacChoro, une review fut proposée par Gene Turner dans Cartographica en 1991.

      Enfin, last but not least, Laurent Jégou a porté en 2022, dans un carnet Observable intitulé Quantiles vs continuous choropleths maps, la méthode des choroplèthes sans classe de Tobler (1993), en la comparant au passage avec la méthode des quantiles – c’est d’ailleurs la seule application de ces cartographies choroplèthes non classées que je connaisse à ce jour. A suivre ?

      Ce billet est dédié à mon collègue Robin Cura, pour les discussions parfois un peu vives que nous avons pu avoir sur le sujet. Mais nul n’est parfait hein :-).

      Références :

      Tobler, W. (1973) “Choropleth Maps Without Class Intervals?.” Geographical Analysis 3: 262-265.

      Tobler W, Jégou L (1973), Choropleth Maps Without Intervals?. 2022.

      Turner Gene (1991), Two mapping software packages for  for Macintosh Computers, Cartographica, n° 10. pp. 17-21.

      MacChoro Il with Map Animation. Image Mapping Systems, Overview.

      Peterson P. (1999), Active legends for interactive cartographic animation, International Journal of Geographical Science, DOI: 10.1080/136588199241256 ·

      Billets liés :

      Laurent Jégou (2022), Des cartes choroplèthes sans classes ?

      Voir aussi :

      Laurent Jégou, Quantiles vs continuous choropleths maps, Notebook Observable.
      Philippe Rivière (2021), Pycno what ? Interpolation pycnophylactique.
      La collection TTT des travaux en français de et après Tobler : hal.archives-ouvertes.fr/TTT/
      L’espace de travail collaboratif sur les travaux de Tobler : ./tributetotobler

      Françoise Bahoken

      Géographe et cartographe, Chargée de recherches à l'IFSTTAR et membre-associée de l'UMR 8504 Géographie-Cités.

      More Posts

    • sur [Equipe Oslandia] Gwendoline, développeur QGIS web

      Publié: 20 June 2024, 6:59am CEST par Caroline Chanlon

      Ingénieur à l’INSA de Lyon en bio-informatique, Gwendoline ne souhaite pas aller vers une thèse et s’oriente dans le domaine du séquençage ADN. Une spécialité qui l’amène vers sa première expérience professionnelle au CNRS dans une station marine à Roscoff en Bretagne.

      Elle travaille au service informatique, en appui aux chercheurs et participe au développement d’un logiciel d’interfaçage « clic – bouton » avec les outils lignes de commande, pour proposer un outil aux chercheurs leur permettant de répéter les workflows rapidement sur un autre jeu de données et les rendre accessibles dans le cadre des publications scientifiques.

      « Je devais comprendre les biologistes pour transmettre les besoins aux informaticiens, mes compétences en bio-informatique et en informatique m’ont bien aidées ! « 

      Après 3 ans et demi au CNRS, direction la région PACA et la Société du Canal de Provence au service informatique !

      Pendant 5 ans, Gwendoline travaille sur de nombreux projets : évolution d’un plugin QGIS en Python pour générer des cahiers parcellaires, mise en place d’IDG, de requêtes PostGIS, d’applications de relevés sur le terrain et de plein d’autres plugins !

      « En cherchant des informations sur un logiciel, je suis tombée sur un article d’Oslandia, je me suis plus renseignée et vu que des postes étaient ouverts ! « 

      Gwendoline est développeur QGIS web chez Oslandia depuis 2021. Elle a pour mission le développement de projets autour de QWC comme pour WKN, mais aussi dans le cœur QWC, dans le cadre de missions open source, ainsi que la formation QGIS / PostGIS et QWC.

      Projet emblématique

      La traduction de l’interface d’administration de QWC ! C’est quelquechose que je ne fais jamais ! C’était un travail de fourmi qui apporte une grande satisfaction quand c’est finalisé !
      A retrouver sur : [https:]]
      et la documentation pour l’activer : [https:]]

      Technologie de prédilection

      Python !

      Sa philosophie

      D’un bout à l’autre ! J’aime maîtriser toute la chaîne : du besoin client jusqu’à la documentation !

      Oslandia en 1 mot

      Bienveillance entre collègues et aussi au niveau des clients, on fait toujours au plus juste, avec une volonté de les former, pour les rendre autonomes.

    • sur Bruxelles Environnement / Accompagnement technique pour la mise en œuvre des politiques régionales liées à l’environnement

      Publié: 18 June 2024, 7:05am CEST par Caroline Chanlon

      Bruxelles Environnement est un organisme public de la région de Bruxelles-Capitale chargé de concevoir et de mettre en œuvre les politiques régionales dans toutes les matières liées à l’environnement.

      À ce titre, Bruxelles Environnement publie un certain nombre de données en opendata, notamment en exposant des flux OGC sur sa plateforme.

      Oslandia l’accompagne sur :
      • l’administration et le maintien en condition opérationnelle des bases de données PostGIS. Cela implique notamment les migrations de versions majeures de PostgreSQL et PostGIS
      • la configuration, le déploiement, l’administration et le MCO des serveurs de cartographie : MapServer, QGIS Server, via Docker, GitLab CI/CD et Ansible.

      Oslandia accompagne également Bruxelles Environnement en proposant des sessions de formations sur PostgreSQL / PostGIS depuis plus de 10 ans. Avoir les compétences en interne a toujours été un choix de l’organisme pour garder de l’expertise au sein de l’équipe SIG.

      Les sessions de formations ont lieu annuellement et se divisent en 2 parties.

      La première pour des débutants ayant peu ou jamais touché aux notions de bases de données spatiales. L’enjeu est important ici, comme pour toutes formations débutants, en plus de donner les bases de compréhension, il faut arriver à motiver les utilisateurs et leur démontrer l’intérêt de la chose.
      La seconde, pour des utilisateurs déjà expérimentés, permet d’approfondir leurs connaissances et elle est souvent données à la carte: les participants choisissent le programme et viennent souvent avec des questions très précises.

      Avoir la compétence en interne permet le lien avec notre assistance en parallèle. La bonne communication est primordiale, et parler le même langage est forcément un atout. L’assistance permet aussi à Bruxelles Environnement d’être aidé pour la mise en place en production de points abordés en formation et d’approfondir des utilisations avancées.

    • sur Mon premier réseau de neurones

      Publié: 17 June 2024, 10:17am CEST par admin

      Pour mieux comprendre l’article sur les réseaux de neurones, cette semaine nous vous proposons de coder un petit réseau de neurones de façon à mieux comprendre ce que sont les poids, le feed forward et les autres notions introduites dans l’article précédent.

      Nous allons réaliser un réseau de neurones à 1 neurone et essayer de lui faire prédire des données placées sur une droite. Cet exercice est trivial, on peut le résoudre sans utiliser d’IA mais restons un peu humble pour commencer.

      Préparation du projet

      Utilisons Jupyter qui reste l’outil de prédilection pour tester et développer une IA.

      # On crée un environnement virtuelle python, et on l'active
      python3 -m venv test_ia
      cd test_ia
      . bin/activate
      
      # On installe jupyter et on le lance
      pip install jupyter
      jupyter notebook

      Cette dernière commande ouvrira Jupyter dans votre navigateur.

       

       

       

       

       

       

      Vous pourrez aller dans “File” -> “New” -> “Notebook” pour créer un nouveau fichier et copier/tester notre programme.

      De quoi avons-nous besoin ?

      Numpy, c’est une bibliothèque Python optimisée pour la gestion de listes.

      NB : il y a un point d’exclamation en début de ligne, ce qui signifie que la commande sera lancée dans le shell. Ici elle permettra d’installer les dépendances dans notre environnement virtuel.

      !pip install numpy
      import numpy as np
      
      Requirement already satisfied: numpy in /home/seba/.local/share/virtualenvs/blog-simple-neural-network-F0Tscko_/lib/python3.11/site-packages (1.26.4)

      Pandas, la bibliothèque Python star de la data-science, basée elle-même sur Numpy.

      !pip install pandas
      import pandas as pd
      Requirement already satisfied: pandas in /home/seba/.local/share/virtualenvs/blog-simple-neural-network-F0Tscko_/lib/python3.11/site-packages (2.2.2)
      Requirement already satisfied: numpy>=1.23.2 in /home/seba/.local/share/virtualenvs/blog-simple-neural-network-F0Tscko_/lib/python3.11/site-packages (from pandas) (1.26.4)
      Requirement already satisfied: python-dateutil>=2.8.2 in /home/seba/.local/share/virtualenvs/blog-simple-neural-network-F0Tscko_/lib/python3.11/site-packages (from pandas) (2.9.0.post0)
      Requirement already satisfied: pytz>=2020.1 in /home/seba/.local/share/virtualenvs/blog-simple-neural-network-F0Tscko_/lib/python3.11/site-packages (from pandas) (2024.1)
      Requirement already satisfied: tzdata>=2022.7 in /home/seba/.local/share/virtualenvs/blog-simple-neural-network-F0Tscko_/lib/python3.11/site-packages (from pandas) (2024.1)
      Requirement already satisfied: six>=1.5 in /home/seba/.local/share/virtualenvs/blog-simple-neural-network-F0Tscko_/lib/python3.11/site-packages (from python-dateutil>=2.8.2->pandas) (1.16.0)
      

      Pytorch, une des principales bibliothèques Python pour faire des réseaux de neurones. Ici on n’installe que la version CPU, la version de base fonctionne avec CUDA, la bibliothèque de calcul scientifique de Nvidia, mais celle-ci prend beaucoup de place sur le disque dur, restons frugaux.

      !pip3 install torch --index-url [https:] 
      import torch
      import torch.nn.functional as F
      Looking in indexes: [https:] 
      Collecting torch
        Downloading [https:] (190.4 MB)
      [2K     [38;2;114;156;31m??????????????????????????????????????[0m [32m190.4/190.4 MB[0m [31m26.4 MB/s[0m eta [36m0:00:00[0mm eta [36m0:00:01[0m[36m0:00:01[0m
      [?25hCollecting filelock
        Downloading [https:] (11 kB)
      Requirement already satisfied: typing-extensions>=4.8.0 in /home/seba/.local/share/virtualenvs/blog-simple-neural-network-F0Tscko_/lib/python3.11/site-packages (from torch) (4.12.2)
      Collecting sympy
        Downloading [https:] (5.7 MB)
      [2K     [38;2;114;156;31m????????????????????????????????????????[0m [32m5.7/5.7 MB[0m [31m57.2 MB/s[0m eta [36m0:00:00[0m MB/s[0m eta [36m0:00:01[0m
      [?25hCollecting networkx
        Downloading [https:] (1.6 MB)
      [2K     [38;2;114;156;31m????????????????????????????????????????[0m [32m1.6/1.6 MB[0m [31m58.6 MB/s[0m eta [36m0:00:00[0m
      [?25hRequirement already satisfied: jinja2 in /home/seba/.local/share/virtualenvs/blog-simple-neural-network-F0Tscko_/lib/python3.11/site-packages (from torch) (3.1.4)
      Collecting fsspec
        Downloading [https:] (170 kB)
      [2K     [38;2;114;156;31m??????????????????????????????????????[0m [32m170.9/170.9 kB[0m [31m18.5 MB/s[0m eta [36m0:00:00[0m
      [?25hRequirement already satisfied: MarkupSafe>=2.0 in /home/seba/.local/share/virtualenvs/blog-simple-neural-network-F0Tscko_/lib/python3.11/site-packages (from jinja2->torch) (2.1.5)
      Collecting mpmath>=0.19
        Downloading [https:] (536 kB)
      [2K     [38;2;114;156;31m??????????????????????????????????????[0m [32m536.2/536.2 kB[0m [31m42.9 MB/s[0m eta [36m0:00:00[0m
      [?25hInstalling collected packages: mpmath, sympy, networkx, fsspec, filelock, torch
      Successfully installed filelock-3.13.1 fsspec-2024.2.0 mpmath-1.3.0 networkx-3.2.1 sympy-1.12 torch-2.3.1+cpu
      

      Matplotlib, pour faire de jolis graphiques.

      !pip install matplotlib
      from matplotlib import pyplot as plt
      %matplotlib inline
      Collecting matplotlib
        Downloading matplotlib-3.9.0-cp311-cp311-manylinux_2_17_x86_64.manylinux2014_x86_64.whl (8.3 MB)
      [2K     [38;2;114;156;31m????????????????????????????????????????[0m [32m8.3/8.3 MB[0m [31m44.0 MB/s[0m eta [36m0:00:00[0mm eta [36m0:00:01[0m0:01[0m:01[0m
      [?25hCollecting contourpy>=1.0.1
        Using cached contourpy-1.2.1-cp311-cp311-manylinux_2_17_x86_64.manylinux2014_x86_64.whl (306 kB)
      Collecting cycler>=0.10
        Using cached cycler-0.12.1-py3-none-any.whl (8.3 kB)
      Collecting fonttools>=4.22.0
        Downloading fonttools-4.53.0-cp311-cp311-manylinux_2_17_x86_64.manylinux2014_x86_64.whl (4.9 MB)
      [2K     [38;2;114;156;31m????????????????????????????????????????[0m [32m4.9/4.9 MB[0m [31m57.3 MB/s[0m eta [36m0:00:00[0m31m72.7 MB/s[0m eta [36m0:00:01[0m
      [?25hCollecting kiwisolver>=1.3.1
        Using cached kiwisolver-1.4.5-cp311-cp311-manylinux_2_17_x86_64.manylinux2014_x86_64.whl (1.4 MB)
      Requirement already satisfied: numpy>=1.23 in /home/seba/.local/share/virtualenvs/blog-simple-neural-network-F0Tscko_/lib/python3.11/site-packages (from matplotlib) (1.26.4)
      Requirement already satisfied: packaging>=20.0 in /home/seba/.local/share/virtualenvs/blog-simple-neural-network-F0Tscko_/lib/python3.11/site-packages (from matplotlib) (24.1)
      Collecting pillow>=8
        Using cached pillow-10.3.0-cp311-cp311-manylinux_2_28_x86_64.whl (4.5 MB)
      Collecting pyparsing>=2.3.1
        Using cached pyparsing-3.1.2-py3-none-any.whl (103 kB)
      Requirement already satisfied: python-dateutil>=2.7 in /home/seba/.local/share/virtualenvs/blog-simple-neural-network-F0Tscko_/lib/python3.11/site-packages (from matplotlib) (2.9.0.post0)
      Requirement already satisfied: six>=1.5 in /home/seba/.local/share/virtualenvs/blog-simple-neural-network-F0Tscko_/lib/python3.11/site-packages (from python-dateutil>=2.7->matplotlib) (1.16.0)
      Installing collected packages: pyparsing, pillow, kiwisolver, fonttools, cycler, contourpy, matplotlib
      Successfully installed contourpy-1.2.1 cycler-0.12.1 fonttools-4.53.0 kiwisolver-1.4.5 matplotlib-3.9.0 pillow-10.3.0 pyparsing-3.1.2
      from random import randint, seed
      
      Création d’un jeu de données simple

      Pour le principe de la démonstration, on va créer un jeu de données parfaitement linéaire f(x) = 2*x

      On pourra contrôler facilement que les prévisions du réseau sont bien sur cette droite.

      data = pd.DataFrame(columns=["x", "y"],
                          data=[(x, x*2) for x in range(10)],
                         )
      data["x"] = data["x"].astype(float)
      data["y"] = data["y"].astype(float)
      
      data.plot.scatter(x="x", y="y")
      <Axes: xlabel='x', ylabel='y'>
      
      data
      Démarrage

      Préparons quelques variables pour le projet. Nous initions aussi le modèle M, si vous voulez tester des évolutions dans le code, relancez cette cellule pour réinitialiser le modèle.

      # On fait en sorte que pytorch tire toujours la même suite de nombres aléatoires
      # Comme ça vous devriez avoir les mêmes résultats que moi.
      torch.manual_seed(1337)
      seed(1337)
      
      # Je crée mon réseau d’un neurone avec une valeur aléatoire
      M = torch.randn((1,1))
      
      # On active le calcul du gradient dans le réseau
      M.requires_grad = True
      print(M)
      
      # On garde une liste de pertes pour plus tard
      losses = list()
      tensor([[-2.0260]], requires_grad=True)
      
      Algorithme général

      Pour que notre réseau apprenne des données, il nous faut une phase de feed forward et une back propagation.

      En quoi ça consiste ?

      Prenons un exemple dans notre jeu de données, la ligne x=9 et y=18.

      # on prend un échantillon
      ix = randint(0, len(data)-1)  # Indice de X
      
      x = data.iloc[ix]["x"]
      y = data.iloc[ix]["y"]
      print(f"{x=},{y=}")
      x=9.0,y=18.0
      

      La phase de feed forward consiste à demander au modèle ce qu’il prévoit comme donnée pour x=9. On utilise l’opérateur “@” qui multiplie des tenseurs.

      X = torch.tensor([x])
      y_prevision = M @ X
      ---------------------------------------------------------------------------
      
      RuntimeError                              Traceback (most recent call last)
      
      Cell In[10], line 2
            1 X = torch.tensor([x])
      ----> 2 y_prevision = M @ X
      
      
      RuntimeError: expected scalar type Float but found Double
      

      Ah oui, Numpy convertit notre Float (32bits) en Double (64 bits) en interne. Transformons notre tenseur en Float dans ce cas.

      X = torch.tensor([x]).float()
      y_prevision = M @ X
      print(f"{y_prevision=}")
      y_prevision=tensor([-18.2339], grad_fn=<MvBackward0>)
      

      Notre modèle prédit donc “-18.2339”, alors que notre y vaut 18.

      C’est normal puisque l’on a initialisé notre modèle avec des valeurs complètement aléatoires.

      Il nous faut donc corriger notre modèle, mais d’abord nous allons utiliser une fonction de perte, ici l1_loss pour voir à quel point on se trompe.

      Y = torch.Tensor([y])
      loss = F.l1_loss(y_prevision, Y)
      print("loss", loss.item())
      loss 36.23392868041992
      

      On se trompe de 36 (c’est à dire 18 – 18,23), c’est beaucoup.

      Pour corriger le modèle nous allons faire la phase de back propagation (ou rétro-propagation ou backward pass).

      Nous allons demander à Pytorch de calculer l’impact des poids du modèle dans cette décision. C’est le calcul du gradient. Cette opération, sans être très compliqué car il s’agit de dériver toutes les opérations effectuées, mérite un article à part entière et ne sera pas traitée dans celui-ci.

      # backward pass
      M.grad = None
      loss.backward()
      

      Attention, il faut toujours réinitialiser le gradient avant de lancer le back propagation.

      Maintenant que nous avons un gradient, nous allons mettre à jour notre modèle en y appliquant une fraction de ce tenseur.

      Pourquoi qu’une fraction ? Ici nous avons une fonction linéaire très simple à modéliser. En appliquant le gradient, on corrigerait tout de suite le modèle. Le problème est que, dans la vraie vie, la situation n’est jamais aussi simple. En réalité, les données sont hétérogènes et donc, appliquer le gradient à une donnée améliore le résultat pour celle-ci mais donnerait un très mauvais gradient pour les autres données.

      Nous allons donc appliquer une fraction du gradient et essayer de trouver le meilleur compromis. On pourra déterminer celui-ci grâce à la fonction de perte.

      Nous allons donc appliquer une modification de 0,1 fois le gradient sur notre modèle, ce 0.1 s’appelle le learning rate.

      # update
      lr = 0.1
      M.data += -lr * M.grad
      print(f"{M.grad=}, {M.data=}")
      M.grad=tensor([[-9.]]), M.data=tensor([[-1.1260]])
      

      Nous verrons lors d’un autre article comment choisir le learning rate.

      Voyons ce que ça donne :

      # forward pass
      y_prevision = M @ X
      print(f"{y_prevision=}")
      y_prevision=tensor([-10.1339], grad_fn=<MvBackward0>)
      

      Pas si mal, on passe de -18 à -10. Ça reste très mauvais mais on n’a exécuté qu’une seule fois notre cycle feed forward / back propagation.

      Faisons en sorte d’appeler plusieurs fois notre algorithme.

      for i in range(1000):
          # on prend un échantillon
          ix = randint(0, len(data)-1)
          
          x = data.iloc[ix]["x"]
          y = data.iloc[ix]["y"]
          
          # forward pass
          y_prevision = M @ torch.tensor([x]).float()
          loss = F.l1_loss(y_prevision, torch.Tensor([y]))
      
          # backward pass
          M.grad = None
          loss.backward()
      
          # update
          lr = 0.01
          M.data += -lr * M.grad
      
          # stats
          losses.append(loss.item())
      

      Voyons ce que donne notre prévision dans un graphique. En rouge les points de données, en bleu la courbe de prévision.

      ax = data.plot.scatter(x="x", y="y", color="red")
      prevision = pd.DataFrame(np.arange(10), columns=["x"])
      m = M.detach()
      prevision["y_prevision"] = prevision["x"].apply(lambda x: (m @ torch.tensor([float(x)]))[0].numpy()) #torch.tensor([4.])
      prevision.plot(y="y_prevision", ax=ax, x="x")
      <Axes: xlabel='x', ylabel='y'>
      

      Et si nous sortons du cadre des données avec un X de 2000 ?

      m @ torch.tensor([float(2000)])
      tensor([4028.0156])
      

      Pas mal, on devrait avoir 4000 mais c’est déjà mieux.

      Et par rapport à nos données de base ?

      prevision

      Bon, que ce passe-t-il ? Regardons un peu l’évolution de notre perte en fonction des itérations ?

      pd.DataFrame(losses, columns=["loss"]).plot()
      <Axes: >

      On voit que les pertes sont importantes pendant 100 itérations et ensuite elles se stabilisent un peu entre 0 et 0.8.

      Est-ce qu’on peut améliorer ça ? Oui très facilement, nous verrons cela ensemble lors d’un prochain article.

      Conclusion

      Nous avons appris comment créer un modèle et faire un apprentissage avec les phases de feed forward et back propagation. Ensuite nous avons vu que le learning rate et gradient permettent de corriger le modèle petit à petit. En faisant quelques centaines d’itérations nous avons un bon modèle de régression.

      J’espère que cette petite introduction vous a donné envie d’aller plus loin.

      Rédacteur : Sébastien Da Rocha

    • sur 24×36.art : Plan de lutte contre les discriminations

      Publié: 17 June 2024, 12:08am CEST par Françoise Bahoken

      Cette affiche a été créée et postée sur le site 24×36.art en réponse à l’appel de soutien du Nouveau Front Populaire 2024, pour illustrer une section du programme.

       

      Françoise Bahoken

      Géographe et cartographe, Chargée de recherches à l'IFSTTAR et membre-associée de l'UMR 8504 Géographie-Cités.

      More Posts

    • sur 24×36.art : Liberté, circulation, migrations internationales

      Publié: 16 June 2024, 4:44pm CEST par Françoise Bahoken

      Cette affiche a été créée et postée sur le site 24×36.art en réponse à l’appel de Geoffrey Dorne et mathias_rabiot pour soutenir le Nouveau Front Populaire 2024.

      Données utilisées pour la cartographie des routes internationales mondiales.
      – fond de carte : naturalearthdata.com
      – projection : projection stéréographique de Gall (adaptée par mes soins).
      – routes : openflights.org/data

      Françoise Bahoken

      Géographe et cartographe, Chargée de recherches à l'IFSTTAR et membre-associée de l'UMR 8504 Géographie-Cités.

      More Posts

    • sur Soutien cartographique au Nouveau Front populaire

      Publié: 15 June 2024, 7:59pm CEST par Cedric Rossi

      Je ne redirai pas ici pourquoi il est important de se mobiliser contre la montée de l’extrême droite et le risque très réel de sa prise de pouvoir dans quelques semaines. Ni comment, une fois qu’elle est au pouvoir, elle ne le lâche plus.

       

      La carte en densité de points ci-dessus représente un point pour chaque vote (version haute résolution) aux élections européennes de 2024. Si elle est moins anxiogène que la plupart de celles qu’on a pu voir au soir des élections, elle montre quand même la prédominance du bleu choisi pour représenter l’extrême droite. Mais tout n’est pas perdu : la carte présente également des points rouges pour les votes de la gauche, elle symbolise l’espoir d’une victoire du Nouveau Front populaire. Elle suggère aussi clairement qu’il est temps que les gauches réinvestissent les espaces ruraux, très monochromes ici.

      Il reste peu de temps pour agir. En tant que cartographe, je pense que c’est à travers les cartes que je peux apporter le plus à cette campagne. J’ai donc décidé d’offrir mes services gratuitement à tous les syndicats, associations, partis, médias de gauche, ou autres, qui soutiennent ou appellent à voter pour le Nouveau Front populaire et qui pourraient avoir besoin de cartographies dans ce contexte.

      Contactez-moi?!

       

      Affiche du Nouveau Front populaire montrant des barbelés avec le message « faire front face aux frontières?»

      Cedric Rossi

      More Posts

      Follow Me:
      TwitterLinkedIn

    • sur Sortie de QField 3.3 « Darién »

      Publié: 14 June 2024, 3:05pm CEST par Vincent Picavet

      Oslandia est le partenaire principal d’OPENGIS.ch pour QField. Nous sommes fiers aujourd’hui de relayer l’annonce de la nouvelle version 3.3 « Darién » de QField. Cette version introduit un tout nouveau framework de plugins qui permet aux utilisateurs de personnaliser et d’ajouter des fonctionnalités complètement nouvelles à leur application de terrain préférée.

       

      Le framework de plugins est accompagné d’autres nouvelles fonctionnalités et améliorations pour cette version, détaillées ci-dessous.

      Les points marquants

      L’une des plus grandes nouveautés de cette version est un tout nouvel outil de dessin qui permet aux utilisateurs d’annoter des détails importants sur des photos capturées ou de prendre des notes sur des modèles de dessin. Cette fonctionnalité, très demandée, est désormais disponible sur toutes les plateformes prises en charge (Android, iOS, Windows, macOS et, bien sûr, Linux) grâce au soutien financier du groupe d’utilisateurs QGIS suisse.

      Cette version inclut également la prise en charge du copier-coller de features vectorielles dans et depuis le presse-papiers. Cela est utile de plusieurs manières, offrant un moyen rapide et facile de transférer des attributs d’une fonctionnalité à une autre via des noms de champs correspondants ou de coller les détails d’une fonctionnalité capturée sur le terrain dans une application de messagerie tierce, de traitement de texte ou de courrier électronique. Le copier-coller de features peuvent se faire via le menu du formulaire des features, ainsi que par un appui long sur la carte. De plus, un nouveau raccourci de transfert d’attributs de feature à feature a également été ajouté au menu du formulaire de feature. Remerciements au canton Suisse de Lucerne, Environnement et Énergie pour le financement de cette fonctionnalité.

      Also landing in this version is support for copying and pasting vector features into and from the clipboard. This comes in handy in multiple ways, from providing a quick and easy way to transfer attributes from one feature to another through matching field names to pasting the details of a captured feature in the field into a third-party messenger, word editing, or email application. Copying and pasting features can be done through the feature form’s menu as well as long pressed over the map canvas. Moreover, a new feature-to-feature attributes transfer shortcut has also been added to the feature form’s menu. Appreciation to Switzerland, Canton of Lucerne, Environment and Energy for providing the funds for this feature.

      Le formulaire de feature continue de gagner en fonctionnalités ; dans cette version, le widget de l’éditeur de carte de valeurs du formulaire de features a gagné une nouvelle interface de bouton qui peut accélère la saisie des données. L’interface remplace la boîte combo traditionnelle par une série de boutons-bascule, réduisant le nombre de clics nécessaires pour choisir une valeur. L’Institut archéologique allemand – KulturGutRetter a parrainé cette fonctionnalité.

      D’autres améliorations du formulaire de fonctionnalité incluent la prise en charge du regroupement des éléments de relation de valeurs et le respect du paramètre « réutiliser la dernière valeur entrée » des attributs de la couche vectorielle.

       

      Enfin, des fonctionnalités supplémentaires incluent la prise en charge de la superposition de décorations d’images, une nouvelle interface pour basculer entre les caméras (avant, arrière et dispositifs externes) pour la caméra « non native », la possibilité de désactiver le geste de rotation de la carte à trois doigts, et bien plus encore.

      Améliorations d’interface utilisateur

      Les utilisateurs de longue date de QField remarqueront le nouveau style des panneaux d’information tels que le positionnement GNSS, la navigation, le profil d’élévation et les données des capteurs. Les informations sont désormais présentées sous forme de superposition sur la carte, ce qui augmente la visibilité de la carte tout en améliorant la mise en avant et la clarté des détails fournis. Avec cette nouvelle version, tous les détails, y compris l’altitude et la distance jusqu’à la destination, respectent le type d’unité de distance configuré par l’utilisateur dans le projet.

      La légende du tableau de bord a également reçu de l’attention. Vous pouvez désormais basculer la visibilité de n’importe quelle couche via un simple clic sur une nouvelle icône en forme d’œil située dans l’arbre de la légende. De même, les groupes de légendes peuvent être développés et réduits directement dans l’arbre. Cela vous permet également de montrer ou de masquer des couches tout en numérisant une fonctionnalité, ce qui n’était pas possible jusqu’à présent. Le développement de ces améliorations a été soutenu par Gispo et parrainé par le Service national du cadastre de Finlande.

      The dashboard’s legend has also received some attention. You can now toggle the visibility of any layer via a quick tap on a new eye icon sitting in the legend tree itself. Similarly, legend groups can be expanded and collapsed directly for the tree. This also permits you to show or hide layers while digitizing a feature, something which was not possible until now. The development of these improvements was supported by Gispo and sponsored by the National Land Survey of Finland.

      Framework de plugins

      QField 3.3 introduit un tout nouveau framework de plugins utilisant le puissant moteur QML et JavaScript de Qt. Avec quelques lignes de code, des plugins peuvent être écrits pour ajuster le comportement de QField et ajouter de nouvelles fonctionnalités. Deux types de plugins sont possibles : des plugins au niveau de l’application ainsi que des plugins spécifiques au  projet. Pour assurer une facilité maximale de déploiement, la distribution des plugins a été rendue possible via QFieldCloud ! Amsa a fourni la contribution financière qui a permis de réaliser ce projet.

      Notre partenaire OPENGIS.ch proposera bientôt un webinaire pour découvrir comment les plugins QField peuvent améliorer vos workflows de terrain (et votre activité au sens large) en vous permettant d’être encore plus efficace sur le terrain.

      Les utilisateurs intéressés par la création de plugins ou une meilleure compréhension du framework peuvent déjà visiter la page de documentation dédiée et un exemple d’implémentation de plugin intégrant une prévision météorologique.

      Vous avez des questions sur QField ? Intéressés par sa mise en œuvre, n’hésitez pas à contacter Oslandia !

       

    • sur [1’Tech by Oslandia] télétravail

      Publié: 14 June 2024, 6:48am CEST par Caroline Chanlon

      On sort un peu de la minute Tech pour évoquer un « mot » qui nous implique particulièrement chez Oslandia. Alors essayons de donner notre meilleure définition du télétravail !

      Le télétravail est une méthode de travail s’affranchissant de la proximité géographique des collaborateurs.

      Quels avantages au télétravail ?
      • la fin des temps de trajet domicile-travail : un meilleur confort personnel, un bilan carbone fortement réduit
      • une flexibilité accrue dans la gestion de son temps et l’organisation au quotidien
      • des recrutements plus libres et plus faciles
      • une communication et des process organisationnels nécessairement structurés
      • l’efficience du travail asynchrone

      Le télétravail n’est pas un problème en soi, mais c’est souvent un catalyseur de problèmes : chaque difficulté rencontrée peut prendre beaucoup plus d’importance et de criticité en distanciel. Cela oblige à traiter les problèmes à la racine, et ne pas les mettre « sous le tapis » en se disant qu’on les résoudra à la machine à café ! Cela crée un environnement d’entreprise plus sain et plus égalitaire.

      Oslandia baigne dans la culture OpenSource, où le développement logiciel s’effectue par nature de façon distribuée, mondiale, et à distance. Nous avons donc ainsi un fonctionnement interne cohérent avec l’objet de notre activité, et nous nous inspirons des fonctionnements des communautés opensource pour le fonctionnement de l’entreprise.

      Les ingrédients clé d’un télétravail durable, efficient et agréable :
      • un travail qui a du sens, facteur de motivation
      • des postes de travail au domicile adaptés et confortables
      • l’accompagnement RH et psychosocial des collaborateurs
      • des process de fonctionnement et de communication clairs et partagés
      • la culture de l’écrit, et les outils adaptés
      • des rendez-vous réguliers pour se rencontrer de visu

      Oslandia fonctionne en 100% télétravail, et cela depuis sa création il y a 15 ans ! L’équipe est répartie dans la France entière, nos clients aussi, et même à l’international. Nous livrons de beaux projets par nos compétences techniques, mais aussi grâce à notre structure organisationnelle.